Dekel et. al. propose a pruning based two step method, which is very s dịch - Dekel et. al. propose a pruning based two step method, which is very s Việt làm thế nào để nói

Dekel et. al. propose a pruning bas

Dekel et. al. propose a pruning based two step method, which is very similar to the ensemble pruned
set method discussed above (see section 2.4). Theoretically and experimentally they have shown that
this method is capable of dealing very sparse situation even with more classes than instances [36].
In the learning step, any arbitrary classifier, h is trained on the training data. In the post learning step, the goal is to find a label transformation function, φ so that the final classifier is the composite of the two, φ ◦ h. This label transformation in this case is defined as a set of label pruning rules ˆ φ and the that minimizes the overall risk of φ ◦ h. A theoretical analysis of final empirical risk, R final risk, R φ shows that a simple pruning rule as, ‘pruning any label for which the ratio of false positive to true positive exceeds some threshold’, reduces the overall risk under mild conditions. More importantly, unlike most other methods, this method allow number of labels, k to grow as a function of number of instances, n. While this method seem to work competitively good even with large domain, Wikipedia, with 2.9 million articles and almost 1.5 million categories, a potential criticism against this method is the implicit label independence assumption. Also, incorporating more complicated pruning rules in the system is left as a future research question.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Dekel et. và những người khác đề nghị cắt tỉa một dựa trên hai bước phương pháp, mà là rất tương tự như các ensemble bớtphương pháp thiết lập thảo luận ở trên (xem phần 2.4). Lý thuyết và thực nghiệm họ đã chỉ ra rằngphương pháp này là có khả năng xử lý các tình huống rất thưa thớt ngay cả với các lớp học thêm hơn trường hợp [36].Trong bước học tập, bất kỳ loại tùy ý, h được đào tạo về dữ liệu đào tạo. Trong bài học bước, mục tiêu là để tìm một chức năng biến đổi nhãn, φ để loại cuối cùng là hỗn hợp của hai, φ ◦ h. Chuyển đổi nhãn hiệu này trong trường hợp này được định nghĩa là một tập hợp các nhãn cắt tỉa quy tắc liên φ và rằng giảm thiểu rủi ro tổng thể của φ ◦ h. Một phân tích lý thuyết cuối cùng thực nghiệm rủi ro, rủi ro cuối cùng R, R φ cho thấy rằng một quy tắc đơn giản cắt tỉa như, 'cắt tỉa bất kỳ nhãn mà tỷ lệ sai tích cực để thực sự tích cực vượt quá một số ngưỡng', làm giảm rủi ro tổng thể điều kiện nhẹ. Quan trọng hơn, không giống như hầu hết các phương pháp khác, phương pháp này cho phép số của nhãn, k để phát triển như là một hàm số trường hợp, n. Trong khi phương pháp này có vẻ làm việc cạnh tranh tốt ngay cả với tên miền lớn, Wikipedia, với 2.9 triệu bài viết và gần 1,5 triệu thư mục, một sự chỉ trích tiềm năng đối với phương pháp này là giả định tiềm ẩn nhãn độc lập. Ngoài ra, kết hợp phức tạp hơn cắt tỉa quy tắc trong hệ thống còn lại là một câu hỏi nghiên cứu trong tương lai.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Dekel et. al. đề xuất một phương pháp cắt tỉa dựa trên hai bước, mà là rất giống với quần tỉa
phương pháp tập thảo luận ở trên (xem phần 2.4). Về mặt lý thuyết và thực nghiệm đã chỉ ra rằng
phương pháp này có khả năng xử lý tình huống rất thưa thớt, ngay cả với các lớp học nhiều hơn các trường hợp [36].
Trong bước học tập, bất kỳ phân loại tùy ý, h ​​được đào tạo về các dữ liệu huấn luyện. Trong bước bài học, mục tiêu là để tìm thấy một chức năng chuyển đổi nhãn, φ để phân loại cuối cùng là tổng hợp của hai, φ ◦ h. Chuyển đổi nhãn này trong trường hợp này được định nghĩa là một tập hợp các quy tắc cắt tỉa nhãn φ và giảm thiểu các rủi ro tổng thể của φ ◦ h. Một lý thuyết phân tích rủi ro thực nghiệm cuối cùng, R nguy thức, R φ cho thấy một quy tắc cắt tỉa đơn giản như sau, 'cắt tỉa bất kỳ nhãn nào mà tỷ lệ dương tính giả để tích cực thực sự vượt quá một số ngưỡng cửa ", làm giảm nguy cơ tổng thể trong điều kiện nhẹ. Quan trọng hơn, không giống như hầu hết các phương pháp khác, phương pháp này cho phép số lượng nhãn, k để phát triển như một chức năng của số trường hợp, n. Trong khi phương pháp này có vẻ làm việc cạnh tranh tốt ngay cả với các tên miền lớn, Wikipedia, với 2,9 triệu bài viết và gần 1,5 triệu loại, một lời chỉ trích tiềm năng chống lại phương pháp này là tiềm ẩn nhãn độc lập giả định. Ngoài ra, kết hợp quy tắc cắt tỉa phức tạp hơn trong hệ thống là trái như là một câu hỏi nghiên cứu trong tương lai.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: