Trong các lĩnh vực của mạng lưới thần kinh, Mathieson [8] đề xuất một mô hình dựa trên các thuật toán thống kê POM. Trong bài báo này, các thuật toán POM được chuyển thể cho vấn đề phi tuyến bằng cách bao gồm các chức năng cơ bản trong formulation.Crammer gốc và Ca sĩ [16] tổng quát Perceptron trực tuyến
thuật toán với nhiều ngưỡng để thực hiện tự ranking.Cheng et al. [17] đề xuất một cách tiếp cận để thích ứng với một mạng lưới thần kinh truyền thống để tìm hiểu cấp bậc thứ tự. Đề xuất này có thể được
quan sát như là một sự tổng quát của phương pháp perceptron vào perceptron đa lớp (mạng nơron) cho OR. Học máy Extreme (ELM) là một khuôn khổ để ước lượng các tham số của đơn lớp feedforward mạng thần kinh (SLFNNs), nơi mà các thông số lớp ẩn nào
không cần phải được điều chỉnh nhưng chúng được phân ngẫu nhiên [18]. Tia lửa đã chứng minh khả năng mở rộng tốt và hiệu suất tổng quát với một tốc độ nhanh hơn khi học tập so với các mô hình khác như SVMs và lan truyền ngược các mạng thần kinh [19]. Sự thích ứng tự nhiên của ELM
khuôn khổ để HOẶC vấn đề chưa được điều tra chưa sâu sắc. ELM cho OR (ELMOR) thuật toán [20] là ví dụ đầu tiên của nghiên cứu theo hướng này. Deng et al. [20] đề xuất một khuôn khổ mã hóa dựa trên cho OR, trong đó bao gồm ba cơ chế mã hóa: phân loại multioutput duy nhất,
nhiều nhị phân với một-đối-tất cả các phương pháp phân hủy và phương pháp chống lại một-một. Sau đó, các thông số của SLFNN được xác định theo các đề xuất
mã hóa và truyền thống ELM (trọng lượng đầu vào được phân ngẫu nhiên và trọng lượng đầu ra được ước tính việc giải quyết các pseudoinverse ma trận Moore-Penrose).
đang được dịch, vui lòng đợi..
