4.1 Sensitivity AnalysisUsing a sensitivity analysis algorithm, the mo dịch - 4.1 Sensitivity AnalysisUsing a sensitivity analysis algorithm, the mo Việt làm thế nào để nói

4.1 Sensitivity AnalysisUsing a sen

4.1 Sensitivity Analysis
Using a sensitivity analysis algorithm, the most important variables, which have a great influence in each network’s output, have been tested in order to check that they are exactly the antecedents of the rules extracted by the previous method described. When a neural network is training, it is possible to know the effect that each input variable is having on network output. This provides feedback about which input variables are the most significant. From there, you may decide to prune the input space by removing the insignificant input variables; this will reduce the size of the network, which in turn reduces the complexity and the training times. Sensitivity analysis is a method for extracting the cause and effect relationship between the
inputs and outputs of the network. The network learning is disabled during this operation such that the network weights are not affected. The activation component for the sensitivity analysis generates the input data by temporarily increasing the input by a small value (dither). Once you have trained the network, you can perform the sensitivity operation on specifying the dither. We will display a column of values, each corresponding to the percentage effect that a particular input has on the output vector as a whole (the sum of all output variables is 100 %).
The algorithm works as follows: for a network with i training examples of dimension d, and with a single output O. To compute the sensitivity along the domain, an x is taken for all the values of the domain and so PSIdx is calculated, then an importance values matrix is obtained, the rows will be the input variables and the columns, the importance of an input variable in a point x of the domain: PSIdx is calculated following the equation:
∀i, P S Idx =  |Oi (Id = x) − Oi (Id = x + )|
where Oi (Id = x) is the output of the network for the training example i with its dth input replaced by the x value. The same for Oi (Id = x + ), but the dth input is replaced by x +  where  is a small value added to the dth input. It can be seen, how there is a correspondence between the importance of the variables given by the sensitivity analysis, and the absolute value of the weight for that variable in each trained neural network. These results show that the selected antecedents, by the algorithm, have higher influence over the output variable (see
Table 1).
Table 1 shows the outputs of the three trained networks, for the three subsets obtained in the first phase BM. In each subset or class, the same results have been J Math Model Algor
reached in the weights and in sensitivity analysis, about the most important input variable. In the first and the third class, height is the main variable, but in second class diameter is the main variable.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
4.1 phân tích độ nhạySử dụng một thuật toán phân tích độ nhạy cảm, các biến quan trọng nhất, có một ảnh hưởng lớn trong sản lượng mỗi mạng, đã được thử nghiệm để kiểm tra rằng họ là chính xác các dòng của các quy tắc tách ra bằng phương pháp trước đó mô tả. Khi một mạng nơ-ron là đào tạo, có thể cho biết hiệu quả mà mỗi biến đầu vào là có trên mạng ra. Điều này cung cấp thông tin phản hồi về những biến đầu vào là quan trọng nhất. Từ đó, bạn có thể quyết định để prune đầu vào không gian bằng cách loại bỏ các biến đầu vào không đáng kể; Điều này sẽ làm giảm kích thước của mạng, trong đó lần lượt làm giảm sự phức tạp và thời gian đào tạo. Phân tích độ nhạy là một phương pháp để giải nén nguyên nhân và có hiệu lực mối quan hệ giữa cácđầu vào và đầu ra của mạng. Học mạng bị vô hiệu hóa trong quá trình này hoạt động như vậy mà các trọng lượng mạng không bị ảnh hưởng. Các thành phần kích hoạt cho phân tích độ nhạy tạo ra dữ liệu đầu vào bằng cách tạm thời tăng đầu vào một giá trị nhỏ (dither). Một khi bạn đã đào tạo mạng, bạn có thể thực hiện các hoạt động nhạy cảm trên quy định cụ thể dither. Chúng tôi sẽ hiển thị một cột giá trị, mỗi tương ứng với tỷ lệ phần trăm hiệu quả mà một đầu vào cụ thể có trên các véc tơ đầu ra như một toàn thể (tổng của tất cả các biến đầu ra là 100%).Các thuật toán hoạt động như sau: cho một mạng lưới với tôi đào tạo ví dụ về kích thước d, và với một đầu ra O. Để tính toán sự nhạy cảm dọc theo vùng, một x được thực hiện cho tất cả các giá trị của tên miền và do đó PSIdx được tính, sau đó một tầm quan trọng giá trị thu được ma trận, các hàng sẽ là các yếu tố đầu vào và các cột, tầm quan trọng của một biến đầu vào trong nhiệt độ x tên miền: PSIdx được tính theo phương trình:∀i, P S Idx = | Oi (Id = x) − Oi (Id = x +) |nơi Oi (Id = x) là đầu ra của mạng ví dụ đào tạo tôi với của nó dth đầu vào thay thế bằng giá trị x. Tương tự cho Oi (Id = x +), nhưng đầu dth được thay thế bởi x + nơi là một nhỏ giá trị gia tăng để dth đầu vào. Nó có thể được nhìn thấy, làm thế nào đó là một sự tương ứng giữa tầm quan trọng của các biến được đưa ra bởi phân tích độ nhạy, và giá trị tuyệt đối của trọng lượng cho rằng biến trong mỗi mạng nơ-ron được đào tạo. Các kết quả cho thấy rằng các dòng được chọn, bởi các thuật toán, có các ảnh hưởng cao trên các biến đầu ra (xemBảng 1).Bảng 1 cho thấy kết quả đầu ra của các mạng lưới đào tạo ba, cho ba con thu được ở BM giai đoạn đầu tiên. Trong mỗi tập con hoặc lớp học, kết quả tương tự đã là J toán mô hình Algorđạt trọng lượng và phân tích độ nhạy, về các biến đầu vào quan trọng nhất. Trong lần đầu tiên và thứ ba lớp, chiều cao là biến chính, nhưng cấp hai đường kính là biến chính.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
4.1 Phân tích độ nhạy
Sử dụng một thuật toán phân tích độ nhạy, các biến quan trọng nhất, trong đó có một ảnh hưởng rất lớn trong sản lượng của mỗi mạng, đã được thử nghiệm để kiểm tra xem họ là chính xác các tiền đề của các quy tắc chiết xuất bằng phương pháp trước đó đã mô tả. Khi một mạng lưới thần kinh là đào tạo, nó có thể biết tác dụng mà mỗi biến đầu vào là có đầu ra trên mạng. Điều này cung cấp thông tin phản hồi về các biến đầu vào là quan trọng nhất. Từ đó, bạn có thể quyết định để tỉa không gian đầu vào bằng cách loại bỏ các biến đầu vào không đáng kể; điều này sẽ làm giảm kích thước của mạng, do đó làm giảm sự phức tạp và thời gian đào tạo. Phân tích độ nhạy là một phương pháp để chiết xuất nhân quả mối quan hệ giữa các
yếu tố đầu vào và đầu ra của mạng. Việc học tập mạng bị vô hiệu hóa trong khi hoạt động này như vậy mà trọng lượng mạng không bị ảnh hưởng. Các thành phần kích hoạt cho việc phân tích độ nhạy cảm tạo ra các dữ liệu đầu vào bằng cách tạm thời gia tăng đầu vào của một giá trị nhỏ (run). Một khi bạn đã được đào tạo mạng, bạn có thể thực hiện các hoạt động nhạy cảm trên quy định cụ thể run lên. Chúng tôi sẽ hiển thị một cột của các giá trị, mỗi tương ứng với hiệu quả tỷ lệ phần trăm mà một đầu vào cụ thể có trên các vector đầu ra như một toàn thể (tổng của tất cả các biến đầu ra là 100%).
Các thuật toán làm việc như sau: đối với một mạng lưới với tôi đào tạo ví dụ về kích thước d, và với một đầu ra duy nhất O. Để tính toán độ nhạy dọc miền, một x được thực hiện cho tất cả các giá trị của tên miền và vì vậy PSIdx được tính toán, sau đó là một giá trị quan trọng ma trận thu được, các hàng sẽ được các biến đầu vào và các cột, tầm quan trọng của một biến số đầu vào tại một điểm x của tên miền: PSIdx được tính theo phương trình:
∀i, PS idx =? | Oi (Id = x) - Oi (Id = x +?) |
Nơi Oi (Id = x) là đầu ra của mạng cho ví dụ đào tạo i với đầu vào dth của nó thay thế bằng các giá trị x. Điều này cũng cho Oi (Id = x +?), Nhưng đầu vào dth được thay thế bởi x +? ở đâu? là một giá trị nhỏ thêm vào đầu vào dth. Nó có thể được nhìn thấy, làm thế nào có sự tương ứng giữa tầm quan trọng của các biến được đưa ra bởi các phân tích độ nhạy, và các giá trị tuyệt đối của trọng lượng cho rằng biến trong mỗi mạng thần kinh được đào tạo. Những kết quả này cho thấy các tiền đề lựa chọn, bởi các thuật toán, có ảnh hưởng cao hơn so với các biến đầu ra (xem
Bảng 1).
Bảng 1 cho thấy các kết quả đầu ra của ba mạng lưới đào tạo, cho ba tập con thu được trong giai đoạn đầu tiên của BM. Trong mỗi nhóm hoặc lớp học, các kết quả tương tự đã được J Math mẫu Algor
đạt được trong các trọng lượng và phân tích độ nhạy cảm, về các biến đầu vào quan trọng nhất. Trong lần đầu tiên và lớp thứ ba, chiều cao là biến chính, nhưng đường kính lớp thứ hai là biến chính.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: