In a second phase, a radial basis function neural network has been imp dịch - In a second phase, a radial basis function neural network has been imp Việt làm thế nào để nói

In a second phase, a radial basis f

In a second phase, a radial basis function neural network has been implemented with four input neurons: diameter growth, thickness crust, diameter and height in order to estimate the volume of wood that can be used. The net uses a competitive rule with full conscience in the hidden layer and one output layer with the Tanh function, all the learning process has been performed with the momentum algorithm. Unsupervised learning stage is based on 100 epochs and the supervised learning control uses as maximum epoch 1000, threshold 0.01. We have performed an initial study using 260 patterns in training set; after a 90 patterns in training set and finally with only 50 patterns in training set, and the mean squared error (MSE), are similar in three cases. Problem under study is prediction of volume of wood, and it is compared to
other methods such as the Huber’s formula (1) and the statistical regression analysis in order to estimate the amount of wood using typical tree variables: diameter, thickness, diameter growth, years and height. Neural networks had approximated in a good manner tested examples, getting a small mean squared error, (see Table 1). Radial basis function neural network learns with only a few patterns, so that results using only 50 patterns are really excellent. For each of the trees classes tested, the RBF gives less MSE estimated than the standard formulas Huber (1), Eq. 2 and Multivariate Analysis Regression. Next step consists on forecasting the input variable importance (sensitive analysis) in the learning process.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Trong một giai đoạn thứ hai, một chức năng cơ sở xuyên tâm thần kinh mạng đã được thực hiện với bốn đầu vào tế bào thần kinh: đường kính tăng trưởng, độ dày vỏ, đường kính và chiều cao để ước tính khối lượng gỗ có thể được sử dụng. Mạng sử dụng một quy tắc cạnh tranh với lương tri con người đầy đủ trong lớp ẩn và một đầu ra lớp với chức năng tánh, tất cả quá trình học tập đã được thực hiện với các thuật toán Đà. Không có giám sát học tập giai đoạn dựa trên 100 kỷ nguyên và điều khiển giám sát học tập sử dụng như là tối đa epoch 1000, ngưỡng 0,01. Chúng tôi đã thực hiện một nghiên cứu ban đầu bằng cách sử dụng các mô hình 260 trong đào tạo tập; sau khi một mẫu 90 trong đào tạo thiết lập và cuối cùng với chỉ 50 mẫu trong huấn luyện tập và, có nghĩa là lỗi bình phương (MSE), là tương tự như trong ba trường hợp. Các vấn đề đang được nghiên cứu là dự đoán của các khối lượng gỗ, và nó được so sánh vớiCác phương pháp khác chẳng hạn như công thức của Huber (1) và phân tích thống kê hồi qui để ước tính số lượng gỗ bằng cách sử dụng điển hình cây biến: đường kính, độ dày, đường kính tăng trưởng, tuổi và chiều cao. Mạng nơ-ron có xấp xỉ trong một ví dụ tốt cách thử nghiệm, nhận được một nhỏ có nghĩa là bình phương lỗi, (xem bảng 1). Mạng nơ-ron chức năng xuyên tâm cơ sở học với chỉ một vài mẫu, do đó kết quả bằng cách sử dụng chỉ 50 mô hình được thực sự tuyệt vời. Cho mỗi cây các lớp học thử nghiệm, cho RBF MSE ít hơn ước tính hơn các công thức tiêu chuẩn Huber (1), Eq. 2 và đa biến phân tích hồi quy. Bước tiếp theo bao gồm dự báo đầu vào quan trọng biến (phân tích nhạy cảm) trong quá trình học tập.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Trong giai đoạn thứ hai, một cơ sở radial mạng chức năng thần kinh đã được thực hiện với bốn nơron đầu vào: tăng trưởng đường kính, lớp vỏ dày, đường kính và chiều cao để ước tính khối lượng gỗ mà có thể được sử dụng. Net sử dụng một quy tắc cạnh tranh với lương tâm đầy đủ trong lớp ẩn và một lớp đầu ra với các chức năng tánh, tất cả quá trình học tập đã được thực hiện với các thuật toán đà. Giai đoạn học không giám sát được dựa trên 100 thời đại và điều khiển học giám sát sử dụng như thời đại tối đa 1000, ngưỡng 0,01. Chúng tôi đã thực hiện một nghiên cứu ban đầu sử dụng 260 mẫu trong tập huấn luyện; sau khi một 90 mẫu trong tập huấn luyện và cuối cùng chỉ với 50 mẫu trong tập huấn luyện, và giá trị trung bình bình phương lỗi (MSE), tương tự như trong ba trường hợp. Vấn đề được nghiên cứu là dự báo khối lượng của gỗ, và nó được so sánh với
các phương pháp khác như công thức của Huber (1) và phân tích hồi quy thống kê để ước tính số lượng gỗ được sử dụng các biến điển hình cây: đường kính, độ dày, tăng trưởng đường kính, năm và chiều cao. Mạng nơ-ron đã xấp xỉ một cách tốt đẹp được thử nghiệm ví dụ, nhận được một lỗi bình phương trung bình nhỏ, (xem Bảng 1). Radial mạng nơron hàm cơ sở học với chỉ một vài mẫu, để các kết quả bằng cách sử dụng chỉ có 50 mẫu là thực sự tuyệt vời. Đối với mỗi lớp cây thử nghiệm, các RBF cho ít MSE ước tính hơn so với công thức tiêu chuẩn (1) Huber, Eq. 2 và đa biến phân tích hồi quy. Bước tiếp theo bao gồm trên dự báo tầm quan trọng biến đầu vào (phân tích nhạy cảm) trong quá trình học tập.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: