TABLE VICRO S S -VALI DATI O N , T R A IN IN G , AND T ES T T IM E RES dịch - TABLE VICRO S S -VALI DATI O N , T R A IN IN G , AND T ES T T IM E RES Việt làm thế nào để nói

TABLE VICRO S S -VALI DATI O N , T

TABLE VI
CRO S S -VALI DATI O N , T R A IN IN G , AND T ES T T IM E RES ULTS F O R E AC H DATA SET AND METHOD , INCLUDI NG THE AVERAGE OVER ALL , THE DIFFE R E N T SPL IT S , AND THE STANDARD DEVI ATI ON (MeanSD )

Real OR data sets and discretized regression data sets are considered as benchmark test sets, four algorithms from the state-of-the-art OR models have been used for comparison (NNOP, ELMOP, POM, and NNPOM) and the model perfor-
mance has been evaluated using the MZE and MAE measures.
Finally, the models have been compared also in terms of computational efficiency and nonparametric statistical tests have been performed to validate the results. From the results of these tests, it can be concluded that the ORNN(ELM) method obtains a significantly higher ranking when compared with the ELMOP, POM, and NNPOM methods. Furthermore, from a computational point of view, the proposed method requires
a significantly lower computational time than the NNOP
and NNPOM, that are iterative methods, while a comparable efficiency with respect to the ELMOP and POM algorithms. This is due to the estimation of the only hyperparameter representing the number of hidden neurons.
The main contribution of this paper has to be addressed to its straightforward formulation, its efficiency, and effectiveness proven by the competitive results achieved with the state-of-
the-art neural networks methods for OR. Finally, as future works, it will be considered the use of type-2 fuzzy weights (due their ordinal nature) for the weights connecting the hidden and the output layers [58], [59].

Table VI reports the average running time (considering also the cross-validation and the test time) of the algorithms consid- ered. All the experiments were run using a common MATLAB framework proposed in [45]. The proposed algorithm was developed and included in the above-mentioned framework. In general, the most efficient algorithms are the ones based on ELM. Both are trained without iterative tuning. Despite this, the lowest computation time was achieved by the POM algorithm. The reason of, that is, that the POM algorithm has not any hyperparameter to be optimized by cross-validation unlike ELMOP and ORNN(ELM) (they both have the number of basis functions, S, as hyperparameter).

V. CONCL USION
This paper extends the class of ELM algorithms for OR. Different from the already existing models, in the proposed algorithm, the outputs of each neuron are not treated inde- pendently one from each other. Rather they are concurrently determined in such a way that the output layer of the resulting neural network exhibits a cumulative distribution of the output. This is obtained imposing monotonicity constraints on the weights connecting the hidden layer with the output layer, transcribing them using a set of padding variables and solving the derived ICLS problem in a close form.
After introducing the existing models for OR, the proposed
method, namely ORNN(ELM), has been described focusing in particular on the encoding scheme used, the neural network model adopted, and the analytic derivation of the model para- meters. As in the traditional ELM algorithms, the connection weights between the input layer and the basis functions are randomly generated.
Particular attention has been given to the experimental part of this paper to motivate the validity of the proposed model.


REFERENCE S

[1] A. K. Jain, R. P. Duin, and J. Mao, “Statistical pattern recognition: A review,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 22, no. 1, pp. 4–37, Jan. 2000.
[2] R. O. Duda, P. E. Hart, and D. G. Stork, Pattern Classification, 2nd ed.
New York, NY, USA: Wiley, 2000.
[3] I. H. Witten and E. Frank, Data Mining: Practical Machine Learning Tools and Techniques (Data Management Systems), 2nd ed. San Mateo, CA, USA: Morgan Kaufmann, 2005.
[4] V. Cherkassky and F. M. Mulier, Learning from Data: Concepts, Theory, and Methods. New York, NY, USA: Wiley, 2007.
[5] C.-K. Chen, “The classification of cancer stage microarray data,” Com- put. Methods Programs Biomed., vol. 108, no. 3, pp. 1070–1077, 2012.
[6] J. Cardoso, J. F. Pinto da Costa, and M. Cardoso, “Modeling ordinal relations with SVMs: An application to objective aesthetic evalua- tion of breast cancer conservative treatment,” Neural Netw., vol. 18, nos. 5–6, pp. 808–817, 2005.
[7] B. Xu, T.-J. Zhao, J.-W. Wu, and C.-H. Zhu, “Automatically ranking reviews based on the ordinal regression model,” in Proc. 3rd Int. Conf. Artif. Intell. Comput. Int., Sep. 2011, pp. 126–134.
[8] M. J. Mathieson, “Ordinal models for neural networks,” in Proc. 3rd
Int. Conf. Neural Netw. Capital Markets, 1996, pp. 523–536.
[9] F. Fernández-Navarro, P. Campoy, M. De la Paz, C.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
BÀN VICRO S S - VALI DATI O N T R một IN trong G, và T ES T T IM E RES ULTS F O R E AC H dữ liệu tập hợp và phương pháp, ba NG trung bình trên tất cả, NGƯỜ R E N T SPL IT S, và tiêu chuẩn DEVI ATI trên (MeanSD) Thực tập dữ liệu OR và hồi qui discretized dữ liệu bộ được coi là điểm chuẩn thử nghiệm bộ, các thuật toán bốn từ các nhà nước-of-the-art OR mô hình đã được sử dụng để so sánh (NNOP, ELMOP, POM và NNPOM) và perfor mô hình- Mance đã được đánh giá bằng cách sử dụng các biện pháp MZE và MAE. Cuối cùng, các mô hình đã được so sánh cũng trong điều khoản của tính toán hiệu quả và nonparametric các bài kiểm tra thống kê đã được thực hiện để xác nhận kết quả. Từ kết quả của các xét nghiệm, nó có thể được kết luận rằng phương pháp ORNN(ELM) lấy được một thứ hạng cao hơn đáng kể khi so sánh với các phương pháp ELMOP, POM, và NNPOM. Hơn nữa, từ một điểm của tính toán xem, phương pháp được đề xuất yêu cầu một thời gian tính toán thấp hơn đáng kể so với NNOP và NNPOM, có phương pháp lặp đi lặp lại, trong khi một hiệu quả tương đương đối với các thuật toán ELMOP và POM. Điều này là do dự toán của duy nhất hyperparameter đại diện cho số lượng tế bào thần kinh ẩn.Sự đóng góp chính của bài báo này đã được giải quyết để xây dựng đơn giản của nó, hiệu quả và hiệu quả đã được chứng minh bởi cạnh tranh kết quả đạt được với nhà nước-của- đại thần kinh mạng phương pháp để hoặc. Cuối cùng, như tác phẩm trong tương lai, nó sẽ được xem xét việc sử dụng các loại-2 mờ trọng lượng (do bản chất tự của họ) cho trọng lượng kết nối ẩn và đầu ra lớp [58], [59]. Bàn VI báo cáo là chạy thời gian (xem xét cũng xác nhận đường và thời gian thử nghiệm) của thuật toán consid-ered. Tất cả các thí nghiệm được chạy bằng cách sử dụng một khuôn khổ MATLAB phổ biến được đề xuất năm [45]. Các thuật toán được đề xuất phát triển và bao gồm trong khuôn khổ nêu trên. Nói chung, các thuật toán hiệu quả nhất là những người dựa trên ELM. Cả hai đều được đào tạo mà không có điều chỉnh lặp đi lặp lại. Mặc dù vậy, thời gian tính toán thấp nhất đạt được bằng các thuật toán POM. Lý do của, đó là, các thuật toán POM có không có hyperparameter để được tối ưu hóa bởi cross-xác nhận không giống như ELMOP và ORNN(ELM) (cả hai đều có số hàm cơ sở, S, như hyperparameter).V. CONCL USIONBài báo này mở rộng lớp ELM thuật toán cho hoặc. Khác nhau từ các mô hình đã tồn tại, trong các thuật toán được đề xuất, kết quả đầu ra của mỗi tế bào thần kinh là không được điều trị độc pendently một từ mỗi khác. Thay vào đó họ đồng thời xác định một cách các lớp đầu ra của mạng nơ-ron kết quả trưng bày một phân bố tích lũy của đầu ra. Điều này thu được áp đặt monotonicity khó khăn về trọng lượng kết nối ẩn lớp với sản lượng lớp, sao chép lại chúng bằng cách sử dụng một bộ đệm biến và giải quyết vấn đề ICLS có nguồn gốc trong một hình thức đóng.Sau khi giới thiệu hiện tại mô hình cho OR, đề xuấtphương pháp, cụ thể là ORNN(ELM), đã được mô tả tập trung đặc biệt vào các chương trình mã hóa được sử dụng, các mô hình mạng nơ-ron được thông qua, và các derivation phân tích mẫu para-mét. Như trong các thuật toán ELM truyền thống, trọng lượng kết nối giữa các lớp đầu vào và các chức năng cơ sở được tạo ra ngẫu nhiên.Đặc biệt chú ý đã được trao cho một phần thử nghiệm của bài báo này để thúc đẩy tính hợp lệ của các mô hình đề xuất. TÀI LIỆU THAM KHẢO S[1] A. K. Jain, R. P. Duin, và J. Mao, "công nhận mẫu thống kê: một xem xét," IEEE dịch mẫu hậu môn. Mach. Intell., vol. 22, số 1, trang 4-37, tháng 1 năm 2000.[2] R. O. Duda, P. E. Hart và D. G. cò, phân loại mô hình, 2nd ed.New York, NY, Hoa Kỳ: Wiley, 2000.[3] I. H. Witten và E. Frank, khai thác dữ liệu: công cụ thực tế máy học và kỹ thuật (hệ thống quản lý dữ liệu), 2nd ed. San Mateo, CA, USA: Morgan Kaufmann, 2005.[4] V. Cherkassky và F. M. Mulier, học hỏi từ dữ liệu: khái niệm, lý thuyết và phương pháp. New York, NY, Hoa Kỳ: Wiley, 2007.[5] C.-K. Chen, "Phân loại ung thư giai đoạn microarray dữ liệu," Com-đặt. Phương pháp chương trình Biomed., vol. 108, số 3, trang 1070-1077, 2012.[6] J. Cardoso, J. F. Pinto da Costa, và M. Cardoso, "mô hình hóa tự quan hệ với SVMs: một ứng dụng khách quan thẩm Mỹ evalua-tion của vú ung thư điều trị duy trì," thần kinh năng., vol. 18, Phi đội 5-6, pp. 808-817, 2005.[7] sinh Xu, T.-J. Triệu Tử Dương, J. W. Ngô, và C.-H. Zhu, "Tự động xếp hạng đánh giá dựa trên mô hình hồi quy tự," trong Proc. 3 Int. Conf. Artif. Intell. Comput. Int., tháng chín năm 2011, trang 126-134.[8] M. J. Mathieson, "thứ tự mô hình cho mạng nơ-ron," trong Proc. 3rdInt. Conf. năng thần kinh. Thị trường vốn, 1996, pp. 523-536.[9] F. Fernández-Navarro, P. Campoy, M. De la Paz, C.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
BẢNG VI
CRO SS -VALI Dati ON, TRA TẠI IN G, T VÀ ES TT IM E RES ULTS FORE AC H DỮ LIỆU VÀ PHƯƠNG PHÁP SET, includi NG CÁC TRUNG BÌNH TRÊN TẤT CẢ, THE nhiều loại kh THUÊ SPL IT S, VÀ TIÊU CHUẨN DEVI ATI ON (MeanSD) bộ Bất OR dữ liệu và rời rạc hóa các tập dữ liệu hồi quy được coi là bộ test benchmark, bốn thuật toán từ các nhà nước-of-the-nghệ thuật HOẶC mô hình này đã được sử dụng để so sánh (NNOP, ELMOP, POM, và NNPOM) và mô hình quả thực hiện mance đã được đánh giá bằng cách sử dụng các biện pháp MZE và MAE. Cuối cùng, các mô hình đã được so sánh còn về hiệu quả tính toán và kiểm tra thống kê không tham số đã được thực hiện để xác nhận kết quả. Từ kết quả của các xét nghiệm này, có thể kết luận rằng ORNN (ELM) phương pháp có được một thứ hạng cao hơn đáng kể khi so sánh với các phương pháp ELMOP, POM, và NNPOM. Hơn nữa, từ một điểm tính toán xem, phương pháp đề xuất đòi hỏi một thời gian tính toán thấp hơn đáng kể so với NNOP và NNPOM, đó là phương pháp lặp đi lặp lại, trong khi một hiệu quả tương đương đối với các ELMOP và các thuật toán POM với. Điều này là do việc ước tính các hyperparameter chỉ đại diện cho số lượng tế bào thần kinh ẩn. Những đóng góp chính của bài viết này đã được giải quyết để xây dựng đơn giản của nó, hiệu quả của nó, và hiệu quả đã được chứng minh bằng những kết quả đạt được cạnh tranh với các nhà nước-of- sự -Art mạng nơron phương pháp OR. Cuối cùng, như các tác phẩm trong tương lai, nó sẽ được coi là sử dụng loại 2 trọng số mờ (do tính chất thứ tự của nó) cho các trọng kết nối các ẩn và các lớp đầu ra [58], [59]. Bảng VI báo cáo thời gian chạy trung bình ( cũng xem xét qua xác nhận và thời gian thử nghiệm) của thuật toán xem xét việc thập. Tất cả các thí nghiệm đã được chạy bằng cách sử dụng một khuôn khổ MATLAB phổ biến được đề xuất trong [45]. Các thuật toán đề xuất được phát triển và đưa vào khuôn khổ nêu trên. Nói chung, các thuật toán hiệu quả nhất là những người dựa trên ELM. Cả hai đều được đào tạo mà không cần điều chỉnh lặp đi lặp lại. Mặc dù vậy, thời gian tính toán thấp nhất đã đạt được bằng các thuật toán POM. Lý do của, đó là, rằng các thuật toán POM không có bất kỳ hyperparameter được tối ưu hóa bởi qua xác nhận không giống như ELMOP và ORNN (ELM) (cả hai đều có số lượng các chức năng cơ bản, S, như hyperparameter). V. CONCL USION giấy này mở rộng các lớp học của thuật toán ELM cho OR. Khác nhau từ các mô hình đã tồn tại, trong các thuật toán đề xuất, các kết quả đầu ra của mỗi tế bào thần kinh không được đối xử một cách độc lập với nhau. Thay vào đó họ đồng thời xác định trong một cách mà các lớp ra của mạng lưới thần kinh dẫn đến trưng bày một phân phối tích lũy của đầu ra. Điều này là thu được những hạn chế đơn điệu hùng vĩ về các trọng kết nối các lớp ẩn với lớp ra, sao chép chúng bằng cách sử dụng một tập hợp các biến padding và giải quyết các vấn đề ICLS có nguồn gốc trong một hình thức gần. Sau khi giới thiệu các mô hình hiện tại cho OR, đề xuất phương pháp, cụ thể là ORNN (ELM), đã được mô tả tập trung đặc biệt vào các chương trình mã hóa được sử dụng, các mô hình mạng thần kinh thông qua, và các dẫn xuất của mô hình phân tích mét para-. Như trong các thuật toán ELM truyền thống, các trọng số kết nối giữa các lớp đầu vào và các hàm cơ sở được tạo ra một cách ngẫu nhiên. Chú ý đặc biệt đã được trao cho các phần thử nghiệm của giấy này để thúc đẩy tính hợp lệ của các mô hình đề xuất. THAM KHẢO S [1] AK Jain , RP Duin, và J. Mao, "nhận dạng mẫu thống kê: Một xem xét", IEEE Trans. Pattern Anal. Mach. Intell., Vol. 22, không có. 1, pp 4-37, tháng một năm 2000.. [2] RO Duda, PE Hart, và DG Stork, Phân loại Pattern, 2nd ed. New York, NY, USA: Wiley, 2000. [3] IH Witten và E. Frank, khai thác dữ liệu: thực hành máy công cụ học tập và kỹ thuật (hệ thống quản lý dữ liệu), 2nd ed. San Mateo, CA, USA: Morgan Kaufmann, 2005. [4] V. Cherkassky và FM Mulier, Học từ dữ liệu: Các khái niệm, lý thuyết, và phương pháp. New York, NY, USA: Wiley, 2007. [5] C.-K. Chen, "Việc phân loại giai đoạn ung thư microarray dữ liệu," put đồng. Phương Pháp Chương Biomed., Vol. 108, không có. 3, pp 1070-1077, 2012.. [6] J. Cardoso, JF Pinto da Costa, và M. Cardoso, "Mô hình hóa các mối quan hệ thứ tự với SVMs: Một ứng dụng để ước lượng mục tiêu thẩm mỹ tion của ung thư vú điều trị bảo thủ," thần kinh netw., vol. 18, nos. 5-6, pp. 808-817, 2005. [7] B. Xu, T.-J. Zhao, J.-W. Wu, và C.-H. Zhu, "Tự động xếp hạng đánh giá dựa trên các mô hình hồi quy tự", trong Proc. 3 Int. Conf. Artif. Intell. Comput. Int., Tháng 9 năm 2011, pp. 126-134. [8] MJ Mathieson, "mô hình TT cho các mạng thần kinh", trong Proc. 3 Int. Conf. Neural Netw. Capital Markets, 1996, pp. 523-536. [9] F. Fernández-Navarro, P. Campoy, M. De la Paz, C.






























đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: