Khi xem xét đa lớp perceptrons, bề mặt lỗi là một hàm phi tuyến của trọng lượng vector w. thuật toán xấp xỉ bởi gradient descent được sử dụng để đào tạo MLPs. Đào tạo bởi các thuật toán gradient Phong Nha, gradient G của hàm chi phí đối với mỗi wij trọng lượng của mạng phải computable. Quá trình này cung cấp các thông tin về làm thế nào mỗi thay đổi trong trọng lượng sẽ ảnh hưởng đến tổng thể lỗi E. Ở đây, chúng tôi có thể xem xét các khái niệm của MSE sau đó được mô tả và xây dựng vector derivative (hoặc chuyển sắc):
đang được dịch, vui lòng đợi..
