Gần đây, một mới học thuật toán cho mạng nơ-ron đơn-ẩn-lớp feedforward (SLFN) được đặt tên máy cực học tập (ELM) đã được đề xuất bởi Hoàng et al. [6,7]. Không giống như truyền thống phương pháp tiếp cận (chẳng hạn như các thuật toán BP) mà có thể đối mặt với những khó khăn trong tự điều chỉnh các tham số điều khiển (tỷ lệ học tập, học tập kỷ nguyên, vv) và/hoặc địa phương cực tiểu, ELM tránh các vấn đề và đạt tốt giải pháp phân tích. Tốc độ học tập của ELM là cực kỳ nhanh chóng so với các phương pháp truyền thống. Trong bài báo này, chúng tôi lần đầu tiên mở rộng các thuật toán ELM từ miền tới vùng phức tạp mà các chức năng kích hoạt đầy đủ phức tạp giới thiệu bởi Kim và Adali [10] được sử dụng. Tương tự như ELM, trọng lượng đầu vào (liên kết các lớp đầu vào để các lớp ẩn) và ẩn lớp biases của C-ELM ngẫu nhiên được lựa chọn dựa trên một số probablity liên tục phân phối (ví dụ như thống nhất phân phối xác suất được sử dụng trong mô phỏng của chúng tôi) và trọng lượng đầu ra (liên kết ẩn lớp lớp đầu ra) sau đó phân tích tính toán. CELM được sử dụng cho sự ngang nhau của một kênh phi tuyến phức tạp với QAM tín hiệu. Kết quả mô phỏng cho thấy rằng bộ chỉnh âm C-ELM là vượt trội so với CRBF [1], CMRAN [8] và equalizers CBP [9] trong điều khoản của tỷ lệ lỗi biểu tượng (SER) và tốc độ học tập. C-ELM cũng tránh địa phương cực tiểu và tất cả những khó khăn trong chương trình khác chẳng hạn như điều chỉnh các tham số điều khiển (học tỷ lệ, kỷ nguyên học tập, vv.). Giấy này được tổ chức như sau. Phần 2 trình bày các thuật toán C-ELM. Phần 3 cho thấy so sánh hiệu suất của C-ELM với CRBF, CMRAN và CBP equalizers cho một vấn đề cân bằng QAM kênh. Cuộc thảo luận và kết luận được đưa ra trong mục 4.
đang được dịch, vui lòng đợi..