Một hằng số, p> 0, điều chỉnh như thế nào lớn một bước được hoàn thành tại mỗi chu kỳ huấn luyện. Như với r, lặp đi lặp lại của phương trình 3.6 được gọi là phương pháp gradient descent của mini-mizing một hàm. Lưu ý rằng nếu tỷ lệ học được chọn chính xác, phương pháp này sẽ có khả năng hội tụ để tối thiểu địa phương của E (w) cho một p đủ nhỏ, cung cấp cho màu sắc được nonzero (Gallant, 1993). Kích thước của p có thể có một tác động đáng kể vào sự tiến triển của các thuật toán, với ap quá nhỏ dẫn đến một cách tiếp cận dramati-biệt kéo dài, và ap quá lớn dẫn đến một dao động có thể và hội tụ không thành công đến mức tối thiểu (Gallant, 1993).
đang được dịch, vui lòng đợi..
![](//viimg.ilovetranslation.com/pic/loading_3.gif?v=b9814dd30c1d7c59_8619)