Most supervised learning algorithms work well when the training datase dịch - Most supervised learning algorithms work well when the training datase Việt làm thế nào để nói

Most supervised learning algorithms

Most supervised learning algorithms work well when the training dataset is balanced, i.e., when it contains approximately the same number of examples from each class. In the presence of unbalanced datasets, techniques such as undersampling of the most represented class, oversampling of the least represented class, and other similar techniques are usually applied [45, 15]. However, in case of two-class problems for which one of the classes of objects is well-sampled, whereas the other one is severely undersampled or not represented (e.g., due to the fact that it is too difficult or expensive to obtain a significant number of training patterns for that class), resampling the dataset might not improve the performance and might not even be possible. In this cases, one-class classification approaches may be applied.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Đặt các thuật toán học giám sát làm việc tốt khi số liệu huấn luyện được cân bằng, ví dụ, khi nó có chứa khoảng cùng một số ví dụ từ mỗi lớp. Sự hiện diện của datasets không cân bằng, kỹ thuật như undersampling nhất đại diện cho lớp, oversampling giai cấp đại diện cho ít nhất, và khác kỹ thuật tương tự được áp dụng thường [45, 15]. Tuy nhiên, trong trường hợp lớp hai vấn đề mà một trong các lớp học của các đối tượng là lấy mẫu tốt, trong khi một trong những khác nghiêm undersampled hoặc không đại diện (ví dụ, do thực tế là nó là quá khó khăn hoặc đắt tiền để có được một lượng đáng kể cho các mô hình đào tạo lớp đó), phương bộ dữ liệu có thể cải thiện hiệu suất và có thể thậm chí không được có thể. Trong trường hợp này, một lớp phân loại phương pháp tiếp cận có thể được áp dụng.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Hầu hết các giám sát các thuật toán học làm việc tốt khi các số liệu đào tạo được cân bằng, ví dụ, khi nó có chứa khoảng cùng một số ví dụ từ mỗi lớp. Trong sự hiện diện của các tập dữ liệu không cân bằng, các kỹ thuật như undersampling của lớp biểu nhất, oversampling của lớp đại diện cho ít nhất, và các kỹ thuật tương tự khác thường được áp dụng [45, 15]. Tuy nhiên, trong trường hợp của các vấn đề hai lớp mà một trong các lớp học của các đối tượng là cũng lấy mẫu, trong khi một trong những khác là undersampled nghiêm trọng hoặc không được đại diện (ví dụ, do thực tế rằng nó là quá khó khăn hay tốn kém để có được một ý nghĩa số mô hình đào tạo cho lớp đó), resampling các số liệu có thể không cải thiện hiệu suất và có thể thậm chí không thể. Trong trường hợp này, các phương pháp phân loại một lớp có thể được áp dụng.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: