4.1 Phân tích độ nhạy
Sử dụng một thuật toán phân tích độ nhạy, các biến quan trọng nhất, trong đó có một ảnh hưởng rất lớn trong sản lượng của mỗi mạng, đã được thử nghiệm để kiểm tra xem họ là chính xác các tiền đề của các quy tắc chiết xuất bằng phương pháp trước đó đã mô tả. Khi một mạng lưới thần kinh là đào tạo, nó có thể biết tác dụng mà mỗi biến đầu vào là có đầu ra trên mạng. Điều này cung cấp thông tin phản hồi về các biến đầu vào là quan trọng nhất. Từ đó, bạn có thể quyết định để tỉa không gian đầu vào bằng cách loại bỏ các biến đầu vào không đáng kể; điều này sẽ làm giảm kích thước của mạng, do đó làm giảm sự phức tạp và thời gian đào tạo. Phân tích độ nhạy là một phương pháp để chiết xuất nhân quả mối quan hệ giữa các
yếu tố đầu vào và đầu ra của mạng. Việc học tập mạng bị vô hiệu hóa trong khi hoạt động này như vậy mà trọng lượng mạng không bị ảnh hưởng. Các thành phần kích hoạt cho việc phân tích độ nhạy cảm tạo ra các dữ liệu đầu vào bằng cách tạm thời gia tăng đầu vào của một giá trị nhỏ (run). Một khi bạn đã được đào tạo mạng, bạn có thể thực hiện các hoạt động nhạy cảm trên quy định cụ thể run lên. Chúng tôi sẽ hiển thị một cột của các giá trị, mỗi tương ứng với hiệu quả tỷ lệ phần trăm mà một đầu vào cụ thể có trên các vector đầu ra như một toàn thể (tổng của tất cả các biến đầu ra là 100%).
Các thuật toán làm việc như sau: đối với một mạng lưới với tôi đào tạo ví dụ về kích thước d, và với một đầu ra duy nhất O. Để tính toán độ nhạy dọc miền, một x được thực hiện cho tất cả các giá trị của tên miền và vì vậy PSIdx được tính toán, sau đó là một giá trị quan trọng ma trận thu được, các hàng sẽ được các biến đầu vào và các cột, tầm quan trọng của một biến số đầu vào tại một điểm x của tên miền: PSIdx được tính theo phương trình:
∀i, PS idx =? | Oi (Id = x) - Oi (Id = x +?) |
Nơi Oi (Id = x) là đầu ra của mạng cho ví dụ đào tạo i với đầu vào dth của nó thay thế bằng các giá trị x. Điều này cũng cho Oi (Id = x +?), Nhưng đầu vào dth được thay thế bởi x +? ở đâu? là một giá trị nhỏ thêm vào đầu vào dth. Nó có thể được nhìn thấy, làm thế nào có sự tương ứng giữa tầm quan trọng của các biến được đưa ra bởi các phân tích độ nhạy, và các giá trị tuyệt đối của trọng lượng cho rằng biến trong mỗi mạng thần kinh được đào tạo. Những kết quả này cho thấy các tiền đề lựa chọn, bởi các thuật toán, có ảnh hưởng cao hơn so với các biến đầu ra (xem
Bảng 1).
Bảng 1 cho thấy các kết quả đầu ra của ba mạng lưới đào tạo, cho ba tập con thu được trong giai đoạn đầu tiên của BM. Trong mỗi nhóm hoặc lớp học, các kết quả tương tự đã được J Math mẫu Algor
đạt được trong các trọng lượng và phân tích độ nhạy cảm, về các biến đầu vào quan trọng nhất. Trong lần đầu tiên và lớp thứ ba, chiều cao là biến chính, nhưng đường kính lớp thứ hai là biến chính.
đang được dịch, vui lòng đợi..
