In a second phase, a radial basis function neural network has been imp dịch - In a second phase, a radial basis function neural network has been imp Việt làm thế nào để nói

In a second phase, a radial basis f

In a second phase, a radial basis function neural network has been implemented with
four input neurons: diameter growth, thickness crust, diameter and height in order to
estimate the volume of wood that can be used. The net uses a competitive rule with
full conscience in the hidden layer and one output layer with the Tanh function, all
the learning process has been performed with the momentum algorithm. Unsupervised
learning stage is based on 100 epochs and the supervised learning control uses
as maximum epoch 1000, threshold 0.01. We have performed an initial study using
260 patterns in training set; after a 90 patterns in training set and finally with only
50 patterns in training set, and the mean squared error (MSE), are similar in three
cases. Problem under study is prediction of volume of wood, and it is compared to
other methods such as the Huber’s formula (1) and the statistical regression analysis
in order to estimate the amount of wood using typical tree variables: diameter,
thickness, diameter growth, years and height. Neural networks had approximated
in a good manner tested examples, getting a small mean squared error, (see Table 1).
Radial basis function neural network learns with only a few patterns, so that results
using only 50 patterns are really excellent. For each of the trees classes tested, the
RBF gives less MSE estimated than the standard formulas Huber (1), Eq. 2 and
Multivariate Analysis Regression. Next step consists on forecasting the input variable
importance (sensitive analysis) in the learning process.
Neural networks is a mapping f (x1, x2, x3,K xn) : n → where x1 = diameter
(cm), x2 = height (m), x3 = bark thickness (cm), x4 = years and forecast variable
x5 = percentage of bark, or y = volume of wood (dm3).
All centers are stable in two points that are those who signal the two main clusters,
and that the net has been able to detect in the first part with only 75%of the pattern
the two tree cluster or class. Several matrices have been computed; where columns
are input variables to forecast and rows are hidden neurons. These matrices show the
center values. Variable x3 = diameter growth takes the same value in both centers
what it means that the study can be done without such variable obtaining similar
values of MSE. Two main centers are found in the hyperspace, see Figs. 2, 3 and 4.
Table 2 shows the real clustering.
Table 2 shows the matrix where the columns represent the input variable and the
rows represent the hidden neurons. The hyperspace is divided into different regions
or clusters starting from 16 (Fig. 2). Later, the number of clusters has been decreased
till the minimum number of possible clusters is reached in order to solve the problem
minimizing the mean squared error (MSE).
All these tasks performed by RBF neural networks permit to classify the input
patterns, in this example, in the two main clusters belonging to the two tree classes.
Also, the variable representing the diameter growth is the less important one. If a
neural network without such variable is implemented and with only 50 input patterns
then results concerning the mean squared error are similar. When decreasing the
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Trong một giai đoạn thứ hai, một chức năng cơ sở xuyên tâm thần kinh mạng đã được thực hiện vớibốn đầu vào tế bào thần kinh: đường kính tăng trưởng, độ dày vỏ, đường kính và chiều cao đểước tính khối lượng gỗ có thể được sử dụng. Mạng sử dụng một quy tắc cạnh tranh vớiđầy đủ lương tâm trong ẩn lớp và đầu ra một lớp với chức năng tánh, tất cảquá trình học tập đã được thực hiện với các thuật toán Đà. Không có giám sáthọc tập giai đoạn dựa trên 100 kỷ nguyên và điều khiển giám sát học tập sử dụngnhư tối đa epoch 1000, ngưỡng 0,01. Chúng tôi đã thực hiện một nghiên cứu ban đầu bằng cách sử dụng260 mẫu trong đào tạo thiết lập; sau khi một mẫu 90 trong đào tạo thiết lập và cuối cùng với duy nhất50 mẫu trong huấn luyện tập và, có nghĩa là lỗi bình phương (MSE), là tương tự như 3trường hợp. Các vấn đề đang được nghiên cứu là dự đoán của các khối lượng gỗ, và nó được so sánh vớiCác phương pháp khác chẳng hạn như công thức của Huber (1) và phân tích thống kê hồi quiđể ước tính số lượng gỗ bằng cách sử dụng điển hình cây biến: đường kính,độ dày, đường kính tăng trưởng, tuổi và chiều cao. Mạng nơ-ron có xấp xỉmột cách tốt kiểm tra ví dụ, nhận được một nhỏ có nghĩa là bình phương lỗi, (xem bảng 1).Mạng nơ-ron chức năng xuyên tâm cơ sở học với chỉ một vài mẫu, do đó, đó là kết quảbằng cách sử dụng chỉ 50 mô hình được thực sự tuyệt vời. Cho mỗi cây các lớp học thử nghiệm, cácRBF cho ít MSE ước tính hơn các công thức tiêu chuẩn Huber (1), Eq. 2 vàPhân tích đa biến Regression. Bước tiếp theo bao gồm dự báo các biến đầu vàotầm quan trọng (phân tích nhạy cảm) trong quá trình học tập.Mạng nơ-ron là một ánh xạ f (x 1, x 2, x 3, K xn): n → nơi x 1 = đường kính(cm), x 2 = chiều cao (m), x 3 = độ dày vỏ cây (cm), x 4 = năm và thời biếnx 5 = tỷ lệ phần trăm của vỏ cây, hoặc y = khối lượng gỗ (dm3).Tất cả các trung tâm được ổn định trong hai điểm mà những người tín hiệu chính cụm hai,và mạng đã có thể phát hiện trong phần đầu tiên với chỉ có 75% của các mô hìnhhai cây cụm hoặc lớp học. Ma trận một số đã được tính toán; nơi cộtđược nhập vào biến thời và hàng là tế bào thần kinh ẩn. Ma trận các hiển thị cácTrung tâm giá trị. Biến x 3 = đường kính tăng trưởng có cùng giá trị trong cả hai trung tâmnhững gì nó có nghĩa là nghiên cứu có thể được thực hiện mà không có biến có được tương tự nhưgiá trị của MSE. Hai trung tâm chính được tìm thấy trong đa chiều, xem Figs. 2, 3 và 4.Bảng 2 cho thấy kết cụm thực sự.Bảng 2 cho thấy ma trận nơi các cột đại diện cho các biến đầu vào và cáchàng đại diện cho các tế bào thần kinh ẩn. Đa chiều được chia thành các khu vực khác nhauhoặc cụm từ 16 (hình 2). Sau đó, số lượng các cụm has been giảmcho đến khi số lượng tối thiểu của cụm có thể được đạt tới để giải quyết vấn đềgiảm thiểu có nghĩa là bình phương lỗi (MSE).Tất cả các nhiệm vụ thực hiện bởi mạng nơ-ron RBF giấy phép phân loại đầu vàoMô hình, trong ví dụ này, trong hai cụm chính thuộc các lớp học hai cây.Ngoài ra, biến đại diện cho sự phát triển đường kính là một ít quan trọng. Nếu mộtmạng nơ-ron mà không có thay đổi như vậy được thực hiện và với chỉ 50 đầu vào mẫusau đó kết quả liên quan đến lỗi bình phương có nghĩa là là tương tự. Khi giảm các
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Trong giai đoạn thứ hai, một cơ sở radial mạng chức năng thần kinh đã được thực hiện với
bốn nơron đầu vào: tăng trưởng đường kính, lớp vỏ dày, đường kính và chiều cao để
ước tính khối lượng gỗ mà có thể được sử dụng. Net sử dụng một quy tắc cạnh tranh với
lương tâm đầy đủ trong lớp ẩn và một lớp đầu ra với các chức năng tánh, tất cả
quá trình học tập đã được thực hiện với các thuật toán đà. Không có giám sát
giai đoạn học tập dựa trên 100 thời đại và điều khiển học giám sát sử dụng
như thời đại tối đa 1000, ngưỡng 0,01. Chúng tôi đã thực hiện một nghiên cứu ban đầu sử dụng
260 mẫu trong tập huấn luyện; sau khi một 90 mẫu trong tập huấn luyện và cuối cùng chỉ có
50 mẫu trong tập huấn luyện, và giá trị trung bình bình phương lỗi (MSE), tương tự như trong ba
trường hợp. Vấn đề được nghiên cứu là dự báo khối lượng của gỗ, và nó được so sánh với
các phương pháp khác như công thức của Huber (1) và phân tích hồi quy thống kê
để ước tính số lượng gỗ được sử dụng các biến điển hình cây: đường kính,
độ dày, tăng trưởng đường kính, năm và chiều cao. Mạng nơ-ron đã xấp xỉ
một cách tốt đẹp được thử nghiệm ví dụ, nhận được một lỗi bình phương trung bình nhỏ, (xem Bảng 1).
Mạng cơ sở Radial chức năng thần kinh học với chỉ một vài mẫu, để các kết quả
bằng cách sử dụng chỉ có 50 mẫu là thực sự tuyệt vời. Đối với mỗi lớp cây thử nghiệm, các
RBF cho ít MSE ước tính hơn so với công thức tiêu chuẩn (1) Huber, Eq. 2 và
đa biến phân tích hồi quy. Bước tiếp theo bao gồm trên dự báo các biến đầu vào
quan trọng (phân tích nhạy cảm) trong quá trình học tập.
Các mạng thần kinh là một ánh xạ f (x1, x2, x3, K xn): n →? nơi x1 = đường kính
(cm), x2 = chiều cao (m), x3 = vỏ dày (cm), x4 = năm và dự báo biến
x5 = tỷ lệ phần trăm của vỏ cây, hoặc khối lượng y = gỗ (dm3).
Tất cả các trung tâm này là ổn định trong hai điểm đó là những người tín hiệu hai cụm chính,
và rằng mạng đã có thể phát hiện trong phần đầu tiên với chỉ 75% của mô hình
các cụm hai cây hoặc lớp học. Một số ma trận đã được tính toán; nơi cột
là các biến đầu vào để dự báo và các hàng là các neuron ẩn. Các ma trận này cho thấy các
giá trị trung tâm. Biến x3 = đường kính tăng trưởng cùng một giá trị trong cả hai trung tâm
những gì nó có nghĩa là nghiên cứu có thể được thực hiện mà không biến như vậy có được tương tự như
giá trị của MSE. Hai trung tâm chính được tìm thấy trong các siêu không, xem các Bảng. 2, 3 và 4.
Bảng 2 cho thấy các phân nhóm thực.
Bảng 2 cho thấy các ma trận, nơi các cột đại diện cho các biến đầu vào và các
hàng đại diện cho các tế bào thần kinh ẩn. Các siêu không được chia thành nhiều khu vực khác nhau
hoặc cụm từ 16 (Hình. 2). Sau đó, số lượng các cụm đã được giảm
đến số lượng tối thiểu của các cụm có thể đạt được để giải quyết vấn đề
giảm thiểu trung bình bình phương lỗi (MSE).
Tất cả những công việc này được thực hiện bởi các mạng nơron RBF phép để phân loại đầu vào
mô hình, trong này Ví dụ, trong hai cụm chính thuộc hai lớp cây.
Ngoài ra, các biến đại diện cho sự tăng trưởng đường kính là một trong ít quan trọng. Nếu một
mạng lưới thần kinh mà không biến như vậy được thực hiện và với mô hình chỉ có 50 đầu vào
thì các kết quả liên quan đến giá trị trung bình bình phương lỗi tương tự. Khi giảm
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: