nơi β, ∈ RJ
dạng ma trận là × RS. Cuối cùng, phương trình hoàn thành trong β = C •. (10) Ví dụ, trong trường hợp của ELM sửa đổi cho tổng quát RBF (GRBF) thuật toán, các trung tâm của mỗi GRBF được lấy ngẫu nhiên từ các mô hình của tập huấn luyện và bán kính và τ (tức là, số mũ của RBF) giá trị đã được xác định để phân tích, xem xét rằng các mô hình phải thực hiện đầy đủ C. Giải thích theo xác suất của các kết quả đầu ra Với hành vi tích lũy của các nút đầu ra: hai khó khăn:. Địa phương và phạm vi bảo hiểm Cuối cùng, trọng lượng đầu ra được xấp xỉ như jj 1 fj (xn) ≤ fj 1 (xn), vì những hạn chế βs ≤ βs được áp dụng trong việc xây dựng mô hình, xác suất tích lũy cho j nút đầu ra được định nghĩa là β H † Y nơi H † là pseudoinverse của H. (18) fj (xn) Tương tự như các khuôn khổ ELM, các mô hình đề xuất cho HOẶC P (yn ≤ j | xn, z) =. (11) f J (xn) có nguồn gốc từ các giải pháp của hệ thống tuyến tính sau đây mô hình đề xuất xấp xỉ xác suất hậu nghiệm của một mô hình thuộc thể loại C j như P (yn = j | xn, z) = P (yn ≤ j | xn, z) - P (yn ≤ j - 1 | xn, z) ∀ j = 2, ..., J P (yn = 1 | xn, z) = P (yn ≤ 1 | xn, z) . (12) Cuối cùng, sử dụng các ước lượng xác suất hậu nghiệm (12), các lớp được dự đoán bởi mô hình tương ứng với các lớp học có giá trị đầu ra là lớn nhất. Bằng cách này, các quy tắc phân loại tối ưu C (x) là như sau: (với OrderedPartitions mã hóa chương trình), có nguồn gốc từ các toán các thông số mô hình trong (10): Y = H • β T = H • (C •) T = H • T • CT (19) chịu ≥ 0. (20) tương đương, hệ thống có thể được định nghĩa là C (x) = l *, nơi l * = arg max 1≤l≤ J P (yn = j | x, z). (13) bị Y • (CT) -1 = H • T (21) D. Thông số Estimation Gần đây, một thuật toán học tập hiệu quả, gọi là ELM, cho SLFNNs đã được đề xuất trong [40]. Tối thiểu của các ô vuông vấn đề nhất (tối thiểu hóa hàm lỗi bình phương) Ghi nhận với Y~ ≥ 0. (22): = Y • (CT) -1 và với Y~ j thứ j ma trận là giải pháp của các tuyến sau Hệ thống: Hβ T = Y (14) cột, các vấn đề về lập trình bậc hai hạn chế sau đây, với mọi j = 1, ..., J, ước tính các biến đệm giảm thiểu các lỗi bậc hai: đó H là ẩn ma trận đầu ra lớp của SLFN và xác định là Minimize j ∈RS Y~ j - H • T TY~ j - H • T H = (h1, h2, ..., HS) ⎛ B1 (x1) ... BS (x1) ⎞ chịu j ≥ 0. (23) Đây là cái gọi là vấn đề ICLS. Của số solu- ⎜ ... ... ... ⎝ B1 (xN) ... BS (xN) ⎟ ∈ RN × RS (15) tion có thể thu được bằng một số thuật toán dựa trên độ dốc, ví dụ, bởi trust- thuật toán khu vực phản xạ (các lsqlin phương pháp trong MATLAB) hoặc bởi các thuật toán hoạt động-set [21]. Các và Y = (y 1, y2, ..., y N) T ∈ RN × RJ (16) β = (β 1, β 2, ..., β S) ∈ RJ × RS. (17) Vấn đề chính của những kỹ thuật này là họ là những phương pháp lặp đi lặp lại, và do đó, tính toán đắt hơn so với các phương pháp dựa trên ELM. Để xác định phân tích các ma trận β một hình thức đóng cửa cho truyền thống, ELM đặt các giá trị cho các tham số lớp ẩn w ngẫu nhiên khi các nút xích ma được coi là [19], [23], [40]. Trong trường hợp của hàm cơ sở xuyên tâm (RBF) các mô hình, các trung tâm của mỗi hàm cơ sở thường ngăn chặn, khai thác lựa chọn ngẫu nhiên các mẫu từ tập huấn luyện [25]. Mặc dù vậy, trong ELM-RBF thuật toán ban đầu [41], các trung tâm của các hàm cơ bản được khởi tạo ngẫu nhiên (như giá trị bán kính) mà không xem xét các mô hình của tập huấn luyện. Nó cũng rất quan trọng để chỉ ra rằng nâng cao hơn RBFs là cũng đề nghị trong khuôn khổ ELM [42], [43]. giải pháp của vấn đề ICLS là cần thiết. Điều này có thể được ước tính từ các điều kiện KKT của lồi giảm thiểu vấn đề về chất [22]. Fomby et al. [44], đã đề xuất một giải pháp hình thức đóng cho các vấn đề ICLS generic Giảm thiểu Y - X • β TTY - X • β T β ∈RK chịu A • β ≥ 0 (24) trong đó A là một ma trận thích hợp cho các mô hình và β trong trường hợp này đại diện cho các trọng số kết nối đồng biến số ban đầu (X ∈ RN × RK) với sản lượng (Y ∈ RN). Các giải pháp mất
đang được dịch, vui lòng đợi..
