4.1 Sensitivity AnalysisUsing a sensitivity analysis algorithm, the mo dịch - 4.1 Sensitivity AnalysisUsing a sensitivity analysis algorithm, the mo Việt làm thế nào để nói

4.1 Sensitivity AnalysisUsing a sen

4.1 Sensitivity Analysis
Using a sensitivity analysis algorithm, the most important variables, which have a
great influence in each network’s output, have been tested in order to check that they
are exactly the antecedents of the rules extracted by the previous method described.
When a neural network is training, it is possible to know the effect that each input
variable is having on network output. This provides feedback about which input
variables are the most significant. From there, you may decide to prune the input
space by removing the insignificant input variables; this will reduce the size of the
network, which in turn reduces the complexity and the training times. Sensitivity
analysis is a method for extracting the cause and effect relationship between the
inputs and outputs of the network. The network learning is disabled during this
operation such that the network weights are not affected. The activation component
for the sensitivity analysis generates the input data by temporarily increasing the
input by a small value (dither). Once you have trained the network, you can perform
the sensitivity operation on specifying the dither. We will display a column of values,
each corresponding to the percentage effect that a particular input has on the output
vector as a whole (the sum of all output variables is 100 %).
The algorithm works as follows: for a network with i training examples of dimension
d, and with a single output O. To compute the sensitivity along the domain,
an x is taken for all the values of the domain and so PSIdx is calculated, then an
importance values matrix is obtained, the rows will be the input variables and the
columns, the importance of an input variable in a point x of the domain: PSIdx is
calculated following the equation:
∀i, P S Idx =  |Oi (Id = x) − Oi (Id = x + )|
where Oi (Id = x) is the output of the network for the training example i with its
dth input replaced by the x value. The same for Oi (Id = x + ), but the dth input is
replaced by x +  where  is a small value added to the dth input.
It can be seen, how there is a correspondence between the importance of the
variables given by the sensitivity analysis, and the absolute value of the weight for
that variable in each trained neural network. These results show that the selected
antecedents, by the algorithm, have higher influence over the output variable (see
Table 1).
Table 1 shows the outputs of the three trained networks, for the three subsets
obtained in the first phase BM. In each subset or class, the same results have been
J Math Model Algor
reached in the weights and in sensitivity analysis, about the most important input
variable. In the first and the third class, height is the main variable, but in second
class diameter is the main variable.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
4.1 phân tích độ nhạyBằng cách sử dụng một thuật toán phân tích độ nhạy cảm, các biến quan trọng nhất, trong đó có mộtCác ảnh hưởng lớn trong mỗi mạng của đầu ra, đã được thử nghiệm để kiểm tra xem họlà chính xác các dòng của các quy tắc tách ra bằng phương pháp trước đó mô tả.Khi một mạng nơ-ron là đào tạo, có thể cho biết tác dụng mỗi đầu vàobiến là có trên mạng ra. Điều này cung cấp thông tin phản hồi về đầu vào màbiến là quan trọng nhất. Từ đó, bạn có thể quyết định để prune đầu vàokhoảng trống bằng cách loại bỏ các biến đầu vào không đáng kể; Điều này sẽ làm giảm kích thước của cácmạng lưới, mà lần lượt làm giảm sự phức tạp và thời gian đào tạo. Độ nhạyphân tích là một phương pháp để giải nén nguyên nhân và có hiệu lực mối quan hệ giữa cácđầu vào và đầu ra của mạng. Học mạng bị vô hiệu hóa trong điều nàyhoạt động như vậy mà các trọng lượng mạng không ảnh hưởng. Các thành phần kích hoạtcho sự nhạy cảm phân tích tạo ra dữ liệu đầu vào bằng cách tạm thời tăng cácnhập vào một giá trị nhỏ (dither). Một khi bạn đã đào tạo mạng, bạn có thể thực hiệnCác hoạt động nhạy cảm trên quy định cụ thể dither. Chúng tôi sẽ hiển thị một cột giá trị,mỗi tương ứng với tỷ lệ phần trăm hiệu quả mà một đầu vào cụ thể có trên đầu ravector như một toàn thể (tổng của tất cả các biến đầu ra là 100%).Các thuật toán hoạt động như sau: cho một mạng lưới với tôi đào tạo ví dụ về kích thướcd, và với một đầu ra duy nhất O. Để tính toán sự nhạy cảm dọc theo vùng,một x được thực hiện cho tất cả các giá trị của tên miền và vì vậy PSIdx được tính, sau đó, mộttầm quan trọng giá trị ma trận thu được, các hàng sẽ là các yếu tố đầu vào và cáccột, tầm quan trọng của một biến đầu vào trong nhiệt độ x tên miền: PSIdx làtính theo phương trình:∀i, P S Idx = | Oi (Id = x) − Oi (Id = x +) |nơi Oi (Id = x) là đầu ra của mạng ví dụ đào tạo tôi với của nóDth đầu vào thay thế bằng giá trị x. Tương tự cho Oi (Id = x +), nhưng đầu dth làthay thế bởi x + nơi là một nhỏ giá trị gia tăng để dth đầu vào.Nó có thể được nhìn thấy, làm thế nào đó là một sự tương ứng giữa tầm quan trọng của cácbiến được đưa ra bởi phân tích độ nhạy, và giá trị tuyệt đối của trọng lượng chođó biến trong từng đào tạo mạng nơ-ron. Các kết quả cho thấy rằng các lựa chọndòng, thuật toán, có các ảnh hưởng cao trên các biến đầu ra (xemBảng 1).Bảng 1 cho thấy kết quả đầu ra của ba mạng lưới đào tạo, cho ba conthu được trong BM giai đoạn đầu tiên. Trong mỗi tập con hoặc lớp học, kết quả tương tự đãJ toán mô hình Algorđạt trọng lượng và phân tích độ nhạy, về các đầu vào quan trọng nhấtbiến. Trong lần đầu tiên và thứ ba lớp, chiều cao là biến chính, nhưng tại thứ hailớp đường kính là biến chính.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
4.1 Phân tích độ nhạy
Sử dụng một thuật toán phân tích độ nhạy, các biến quan trọng nhất, trong đó có một
ảnh hưởng rất lớn trong sản lượng của mỗi mạng, đã được thử nghiệm để kiểm tra xem họ
là chính xác các tiền đề của các quy tắc chiết xuất bằng phương pháp trước đó đã mô tả.
Khi một thần kinh mạng là đào tạo, nó có thể biết tác dụng mà mỗi đầu vào
biến là có đầu ra trên mạng. Điều này cung cấp thông tin phản hồi về mà đầu vào
biến là quan trọng nhất. Từ đó, bạn có thể quyết định để tỉa đầu vào
không gian bằng cách loại bỏ các biến đầu vào không đáng kể; điều này sẽ làm giảm kích thước của
mạng, do đó làm giảm sự phức tạp và thời gian đào tạo. Độ nhạy
phân tích là một phương pháp để chiết xuất nhân quả mối quan hệ giữa các
yếu tố đầu vào và đầu ra của mạng. Việc học tập mạng bị vô hiệu hóa trong quá trình này
hoạt động như vậy mà trọng lượng mạng không bị ảnh hưởng. Các thành phần hoạt hóa
cho việc phân tích độ nhạy cảm tạo ra các dữ liệu đầu vào bằng cách tạm thời gia tăng
đầu vào của một giá trị nhỏ (run). Một khi bạn đã được đào tạo mạng, bạn có thể thực hiện
các hoạt động nhạy cảm trên quy định cụ thể run lên. Chúng tôi sẽ hiển thị một cột của các giá trị,
mỗi tương ứng với hiệu quả tỷ lệ phần trăm mà một đầu vào cụ thể có trên đầu ra
vector như một toàn thể (tổng của tất cả các biến đầu ra là 100%).
Các thuật toán làm việc như sau: đối với một mạng lưới với tôi đào tạo ví dụ về kích thước
d, và với một đầu ra duy nhất O. Để tính toán độ nhạy dọc miền,
một x được thực hiện cho tất cả các giá trị của tên miền và vì vậy PSIdx được tính toán, sau đó một
tầm quan trọng các giá trị ma trận thu được, các hàng sẽ được các biến đầu vào và các
cột, tầm quan trọng của một biến số đầu vào tại một điểm x của tên miền: PSIdx được
tính theo phương trình:
∀i, PS idx =? | Oi (Id = x) - Oi (Id = x +?) |
Nơi Oi (Id = x) là đầu ra của mạng cho các ví dụ huấn luyện tôi với nó
đầu vào dth thay thế bằng các giá trị x. Điều này cũng cho Oi (Id = x +?), Nhưng đầu vào dth được
thay thế bằng x +? ở đâu? là một giá trị nhỏ thêm vào đầu vào dth.
Nó có thể được nhìn thấy, làm thế nào có sự tương ứng giữa tầm quan trọng của các
biến được đưa ra bởi các phân tích độ nhạy, và các giá trị tuyệt đối của trọng lượng cho
rằng biến trong mỗi mạng thần kinh được đào tạo. Những kết quả này cho thấy các lựa chọn
tiền đề, ​​bởi các thuật toán, có ảnh hưởng cao hơn so với các biến đầu ra (xem
Bảng 1).
Bảng 1 cho thấy các kết quả đầu ra của ba mạng lưới đào tạo, cho ba tập con
thu được trong giai đoạn đầu tiên của BM. Trong mỗi nhóm hoặc lớp học, các kết quả tương tự đã được
J Math mẫu Algor
đạt được trong các trọng lượng và phân tích độ nhạy cảm, về các đầu vào quan trọng nhất
biến. Trong lần đầu tiên và lớp thứ ba, chiều cao là biến chính, nhưng trong hai
đường kính lớp là biến chính.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: