theo hình thức:
⎧if A • β ≥ 0: β
⎪⎨
β * = nếu A2 • β <0: β + A2 KAT KAT -1 (0 - A2 β) 2 2 ⎪ ⎩if A • β <0: β + KAT AKAT -1 (0 - Aư) (25) Trong đó K: = (XTX) -1 và β (OLS) ước lượng là bình phương nhỏ nhất Hình. 3. NNORELM khuôn khổ. TABLE III β = KX TYX † Y. (26) Bên cạnh đó, các submatrix A2 được định nghĩa là A1 Charac TERI S TIC CỦA TẬP dữ liệu điểm chuẩn, RA LỆNH CỦA SỐ CL A SSE S A = A2 (27) nơi A1 • β ≥ 0 và A2 • β <0. trivially, nếu A beta • ≥ 0 giữ thì giải pháp của OLS vấn đề cũng là giải pháp của một trong các ICLS. Nếu không, theo [44], để đảm bảo rằng β * là một giải pháp khả thi cho vấn đề ICLS, điều kiện đủ sau đây phải giữ: nếu A2 • β <0: A1 A2 • KAT KAT -1 (0 - A2 β) ≥ 0 2 2 nếu A • β <0: [AKAT] -1 (0 - Aư) ≥ 0. (28) Đối với các trường hợp cụ thể của vấn đề tối ưu hóa chế quy định tại (23), ma trận A bằng với nhận dạng ma trận và các giải pháp của vấn đề j ICLS giảm tới ⎧if ⎪ ⎪ j ≥ 0: j TT nếu A2 • <0: + A2 LAT LAT -1 jj 2 2 j = TT (29) ⎪ nếu j <0: 0 (0 - A2 j) trong đó L: = (HT H) -1 và j là giải pháp của sponding j corre thứ vấn đề OLS j = LHT Y~ j = H † Y~ j ( 30) với điều kiện đủ IV. THÍ NGHIỆM A. Thiết kế thí nghiệm Trong phần này, các thí nghiệm thực hiện để xác nhận tính hiệu quả của mô hình sẽ được thảo luận, giới thiệu T 1 T bộ dữ liệu được coi là, các thuật toán được sử dụng để so sánh, nếu A2 • j <0: A1LAT • A2 LẠT - 0 - A2 ≥ 0 2 2 j nếu j <0: L-1 (0 - j) ≥ 0. (31) Ma trận đệm cuối cùng được xác định theo từng hàng như * = [*] j = 1, ..., J. (32) Tương tự như các ELM tiêu chuẩn, trong thần kinh đề xuất mạng, các thông số lớp ẩn cần phải được điều chỉnh [19], [23]. Lý thuyết học ELM cho thấy rằng các nút ẩn của SLFNN không cần phải được điều chỉnh và các thông số này có thể được ước tính một cách ngẫu nhiên. Theo ELM học gì- Ory, các thông số kết nối các lớp đầu vào cho lớp ẩn được tạo ra ngẫu nhiên trong mạng nơron trình đặt ra. Tóm lại, các mạng nơron cho HOẶC dựa trên ELM [NNOR (ELM)] thuật toán có thể được mô tả như hình. 3. các giá trị tham số được thông qua, và các biện pháp thực hiện xem xét. Theo khuyến nghị của Gutiérrez et al. [45], mô hình được xác nhận bằng cách sử dụng hai loại bộ dữ liệu: bộ thực OR dữ liệu rời rạc và hồi quy tập hợp dữ liệu. Đối với các bộ dữ liệu hồi quy rời rạc, các kho lưu trữ được cung cấp bởi Chu và Ghahramani [14] đã được sử dụng. Các bộ dữ liệu được cung cấp bởi Chu và Ghahramani [14] không phải là những người thực sự tự phân loại nhưng vấn đề hồi quy, được biến thành phân loại thứ tự discretizing biến mục tiêu thành J thùng khác nhau với tần số bằng nhau. Đối với các bộ dữ liệu, J = 5 và J = 10 thùng được xem xét, để xem phản ứng của các mô hình với sự gia tăng của sự phức tạp vấn đề. Bảng III cho thấy các đặc tính của 16 bộ dữ liệu, bao gồm cả số mẫu, các thuộc tính và các lớp học , và cũng có sự phân lớp (số lượng mẫu cho mỗi lớp).
đang được dịch, vui lòng đợi..