Neural Networks TT Nếu không lặp đi lặp lại chỉnh Francisco Fernández-Navarro, Thành viên, IEEE, Annalisa Riccardi, và Sante Carloni hồi quy Abstract- TT (OR) là một ngành quan trọng của việc học có giám sát ở giữa phân loại nhiều lớp và hồi quy. Trong bài báo này, sơ đồ phân loại truyền thống của mạng nơ ron được thích nghi để học bậc thứ tự. Mô hình đề xuất áp đặt những hạn chế đơn điệu về trọng lượng kết nối các lớp ẩn với lớp ra. Để làm như vậy, các trọng số được phiên mã bằng cách sử dụng các biến padding. Sửa đổi chính điều này dẫn đến cái gọi là bất đẳng thức bình phương nhỏ nhất hạn chế (ICLS) vấn đề. Giải pháp số của nó có thể được thu được bằng một số phương pháp lặp đi lặp lại, cho các thuật toán Ví dụ, khu vực thác hay tìm kiếm dòng. Trong đề xuất này, các tối ưu được xác định phân tích theo các giải pháp hình thức đóng của vấn đề ICLS ước tính từ các điều kiện Karush-Kuhn-Tucker. Hơn nữa, theo các hướng dẫn của các khuôn khổ học máy cực đoan, các trọng số kết nối đầu vào và các lớp ẩn được tạo ra một cách ngẫu nhiên, do đó, các mô hình cuối cùng ước tính tất cả các thông số của nó mà không cần điều chỉnh lặp đi lặp lại. Các đề xuất mô hình đạt hiệu suất cạnh tranh so với các nhà nước-of-the-nghệ thuật mạng nơron phương pháp OR. Index học máy Terms- Extreme (ELM), mạng nơron, hồi quy tự (OR). I. INT roduct ION LÃI phân loại hoặc để dự đoán các giá trị số từ mô hình prelabeled là một trong những đề tài nghiên cứu trung tâm trong học máy và khai thác dữ liệu [1] - [4]. Tuy nhiên, ít người chú ý đến thứ tự hồi quy [(OR), cũng được gọi là thứ tự phân loại] vấn đề, nơi các nhãn của các triển lãm biến mục tiêu một trật tự tự nhiên. Ngược lại với vấn đề hồi quy, trong OR, các cấp bậc là rời rạc và hữu hạn. Những cấp bậc cũng khác nhau từ các mục tiêu lớp học trong vấn đề phân loại danh nghĩa do sự tồn tại của bảng xếp hạng thông tin. Ví dụ, nhãn lớp có thứ tự D C ≺ ≺ ≺ B A, nơi ≺ biểu thị thứ tự nhất định giữa các cấp bậc. Vì vậy, OR là một vấn đề học tập ở giữa các hồi quy và phân loại danh nghĩa. Một số lĩnh vực có HOẶC tìm thấy ứng dụng đang nghiên cứu y học [5], [6], xem xét xếp hạng [7], mô hình kinh tế lượng [8], hoặc xếp hạng tín dụng chủ quyền [9]. Trong văn học thống kê, phần lớn các mô hình dựa trên các mô hình tuyến tính tổng quát [10]. Các tỷ lệ cược tỷ lệ mô hình (POM) [10] là một phương pháp thống kê nổi tiếng với OR, trong đó họ dựa trên một giả định về phân phối cụ thể trên bản thảo đã nhận được ngày 14 tháng tám năm 2013; sửa đổi ngày 3 tháng 12 năm 2013; chấp nhận 05 tháng 2, 2014. Ngày xuất bản ngày 21 Tháng 2 năm 2014; ngày của phiên bản hiện tại ngày 15 tháng 10, 2014. Các tác giả với các khái niệm đội nâng cao, không gian châu Âu Trung tâm Nghiên cứu Công nghệ và Cơ quan Vũ trụ châu Âu, Noordwijk 14012, Hà Lan (e-mail: i22fenaf@uco.es; francisco.fernandez.navarro @ esa.int; annalisa.riccardi@esa.int;. sante.carloni@esa.int) phiên bản màu của một hay nhiều nhân vật trong bài viết này là có sẵn trực tuyến tại http://ieeexplore.ieee.org. Object kỹ thuật số định danh 10,1109 / TNNLS.2014.2304976 các biến tiềm ẩn không quan sát được (thường giả định một phân phối hậu cần) và một trật tự ngẫu nhiên của không gian đầu vào. OR đã phát triển trong những năm qua trong lĩnh vực học máy, với nhiều thành tích cho các cộng đồng [11], từ máy vector hỗ trợ (SVM) phương pháp tiếp cận [12], [13] để quá trình Gaussian [14] và biệt thức học tập [15] . Trong lĩnh vực mạng thần kinh, Mathieson [8] đề xuất một mô hình dựa trên các thuật toán thống kê POM. Trong bài báo này, các thuật toán POM được chuyển thể mắc các phi tuyến bằng cách bao gồm các chức năng cơ bản trong việc xây dựng ban đầu. Người rèn luyện và Ca sĩ [16] tổng quát thuật toán perceptron trực tuyến với nhiều ngưỡng để thực hiện xếp hạng thứ tự. Cheng et al. [17] đề xuất một cách tiếp cận để thích ứng với một mạng lưới thần kinh truyền thống để tìm hiểu cấp bậc thứ tự. Đề xuất này có thể được quan sát như là một sự tổng quát của phương pháp perceptron vào perceptron đa lớp (mạng nơron) cho OR. Học máy Extreme (ELM) là một khuôn khổ để ước tính giao phối các thông số của đơn lớp feedforward các mạng lưới thần kinh (SLFNNs), nơi mà các thông số lớp ẩn không cần phải được điều chỉnh nhưng chúng được phân ngẫu nhiên [18]. Tia lửa đã chứng minh khả năng mở rộng tốt và hiệu suất sự tổng quát với một tốc độ nhanh hơn khi học tập do- với các mô hình khác như SVMs và lan truyền ngược các mạng thần kinh [19]. Sự thích ứng tự nhiên của khuôn khổ ELM để HOẶC vấn đề chưa được chưa sâu sắc, khối tigated. ELM cho OR (ELMOR) thuật toán [20] là ví dụ đầu tiên của nghiên cứu theo hướng này. Deng et al. [20] đề xuất một khuôn khổ mã hóa dựa trên cho OR, trong đó bao gồm ba cơ chế mã hóa: multioutput duy nhất phân loại, nhiều nhị phân-classificati
đang được dịch, vui lòng đợi..