2.2 Multiple Instance LearningDietterich et al. [7] introduced the Mul dịch - 2.2 Multiple Instance LearningDietterich et al. [7] introduced the Mul Việt làm thế nào để nói

2.2 Multiple Instance LearningDiett

2.2 Multiple Instance Learning
Dietterich et al. [7] introduced the Multiple Instance
Learning problem and presented Multiple Instance
Learning algorithms for learning axis-parallel rectangles
(APR). In [3], Auer et al. proposed MULTIINST
algorithm for Multiple Instance Learning that is also an
APR based method. In [10], Maron et al. introduced the
concept of Diversity Density and applied a two-step
gradient ascent with multiple starting points to find the
maximum Diversity Density. Based on the Diversity
Density, Qi Zhang et al. [17] proposed EM-DD
algorithm. In their algorithm, it was assumed that each
bag has a representative instance and treated it as a
missed value, and then the EM (ExpectationMaximization) method and Quasi-Newton method were
used to learn the representative instances and maximize
the Diversity Density simultaneously. [12] also used the
EM method to do Multiple Instance Regression. Jun
Wang et al. [15] explored the lazy learning approaches in
Multiple Instance Learning. They developed two kNNbased algorithms: Citation-kNN and Bayesian-kNN. In
[19], Jean-Daniel Zucker et al. tried to solve the Multiple
Instance Learning problem with decision trees and
decision rules. Jan Ramon et al. [11] proposed the
Multiple Instance Neural Network. Stuart Andrews et al.
[2] utilized the Support Vector Machine in Multiple
Instance Learning
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
2.2 nhiều trường hợp học tậpDietterich et al. [7] giới thiệu phần nhiềuVấn đề học tập và trình bày trường hợp nhiềuHọc các thuật toán cho việc học tập hình chữ nhật trục song song(THÁNG TƯ). [3], Auer et al. đề xuất MULTIINSTCác thuật toán cho nhiều trường hợp học tập cũng là mộtAPR dựa trên phương pháp. [10], Maron et al. giới thiệu cáckhái niệm về mật độ đa dạng và áp dụng một hai bướcgradient đi lên với nhiều điểm khởi đầu để tìm cáctối đa đa dạng mật độ. Dựa trên sự đa dạngMật độ, Qi Zhang et al. [17] đề xuất EM-DDthuật toán. Trong thuật toán của họ, nó giả định mà mỗitúi có một trường hợp đại diện và coi nó là mộtbị mất giá trị, và sau đó EM (ExpectationMaximization) phương pháp và phương pháp Quasi-Newtonđược sử dụng để tìm hiểu các trường hợp đại diện và tối đa hóamật độ đa dạng cùng một lúc. [12] cũng sử dụng cácEM các phương pháp để làm nhiều ví dụ hồi quy. Tháng sáuWang et al. [15] khám phá phương pháp tiếp cận học tập lười biếng trongNhiều trường hợp học tập. Họ đã phát triển hai kNNbased thuật toán: trích dẫn-kNN và Bayes-kNN. Ở[19], Jean-Daniel Zucker et al. đã cố gắng để giải quyết nhiềuTrường hợp vấn đề học tập với cây quyết định vàquyết định quy tắc. Jan Ramon et al. [11] đề xuất cácNhiều trường hợp mạng nơ-ron. Stuart Andrews et al.[2] sử dụng máy vectơ hỗ trợ trong nhiềuTrường hợp học tập
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
2.2 Nhiều Instance Learning
Dietterich et al. [7] giới thiệu Multiple Instance
Học vấn đề và trình bày sơ thẩm Nhiều
thuật toán học cho việc học chữ nhật trục song song
(APR). Trong [3], Auer et al. đề xuất MULTIINST
thuật toán cho nhiều Instance Learning đó cũng là một
phương pháp dựa Tháng Tư. Trong [10], Maron et al. giới thiệu các
khái niệm về đa dạng Mật độ và áp dụng một hai bước
dốc đi lên với nhiều điểm khởi đầu để tìm ra
mật độ đa dạng tối đa. Dựa trên sự đa dạng
Density, Qi Zhang et al. [17] đề xuất EM-DD
thuật toán. Trong thuật toán của họ, người ta cho rằng mỗi
túi có một ví dụ đại diện và coi đó như là một
giá trị bị mất, và sau đó các phương pháp EM (ExpectationMaximization) và phương pháp Quasi-Newton đã được
sử dụng để tìm hiểu các trường hợp người đại diện và tối đa hóa
các Mật độ đa dạng cùng một lúc. [12] cũng sử dụng các
phương pháp EM làm Nhiều Instance Regression. Tháng Sáu
Wang et al. [15] khám phá các phương pháp học tập lười biếng trong
Nhiều Instance Learning. Họ đã phát triển hai thuật toán kNNbased: Citation-KNN và Bayesian-KNN. Trong
[19], Jean-Daniel Zucker et al. cố gắng để giải quyết Nhiều
Instance Học vấn đề với cây quyết định và
quy tắc quyết định. Jan Ramon et al. [11] đề xuất
Nhiều Instance Neural Network. Stuart Andrews et al.
[2] sử dụng các Support Vector Machine trong nhiều
Instance Learning
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: