mà là chỉ số thời đại, và là tỷ lệ học. Leven- berg-Marquardt và lan truyền ngược hồi (RPROP) algo- rithms thường biểu hiện sự hội tụ nhờ nhanh nhất để các kỹ thuật mà chúng thay đổi tỷ lệ học [19], [20].
Sự hội tụ của thuật toán Gradient gia tăng trên đã được nghiên cứu rộng rãi trong các tài liệu [21], [22]. Trong thực tế, đào tạo gia tăng được sử dụng rộng rãi trong thực tế, hoặc là thay thế hoặc kết hợp với đào tạo hàng loạt, bởi vì nó có thể xử lý các tập huấn luyện lớn mà nếu không ngăn cấm, ngay cả cho vào mô hình mạng erate cỡ [23] - [27]. Hơn nữa, đào tạo gia tăng cho phép để đào tạo mạng lưới thần kinh trực tuyến, đồng hóa mẫu huấn luyện mà chỉ trở thành một trong có sẵn tại một thời điểm tăng lên qua thời gian. Nó cũng được biết, tuy nhiên, có kiến thức trước khi chức năng có xu hướng bị phá hủy bởi các thuật toán huấn luyện gia tăng thông thường do sự can thiệp. Phần sau đây giới thiệu một kỹ thuật đào tạo hạn chế tối ưu hóa mà
đang được dịch, vui lòng đợi..