2.2 Multiple Instance LearningDietterich et al. [7] introduced the Mul dịch - 2.2 Multiple Instance LearningDietterich et al. [7] introduced the Mul Việt làm thế nào để nói

2.2 Multiple Instance LearningDiett

2.2 Multiple Instance Learning
Dietterich et al. [7] introduced the Multiple Instance
Learning problem and presented Multiple Instance
Learning algorithms for learning axis-parallel rectangles
(APR). In [3], Auer et al. proposed MULTIINST
algorithm for Multiple Instance Learning that is also an
APR based method. In [10], Maron et al. introduced the
concept of Diversity Density and applied a two-step
gradient ascent with multiple starting points to find the
maximum Diversity Density. Based on the Diversity
Density, Qi Zhang et al. [17] proposed EM-DD
algorithm. In their algorithm, it was assumed that each
bag has a representative instance and treated it as a
missed value, and then the EM (ExpectationMaximization) method and Quasi-Newton method were
used to learn the representative instances and maximize
the Diversity Density simultaneously. [12] also used the
EM method to do Multiple Instance Regression. Jun
Wang et al. [15] explored the lazy learning approaches in
Multiple Instance Learning. They developed two kNNbased algorithms: Citation-kNN and Bayesian-kNN. In
[19], Jean-Daniel Zucker et al. tried to solve the Multiple
Instance Learning problem with decision trees and
decision rules. Jan Ramon et al. [11] proposed the
Multiple Instance Neural Network. Stuart Andrews et al.
[2] utilized the Support Vector Machine in Multiple
Instance Learning
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
2.2 Multiple Instance LearningDietterich et al. [7] introduced the Multiple InstanceLearning problem and presented Multiple InstanceLearning algorithms for learning axis-parallel rectangles(APR). In [3], Auer et al. proposed MULTIINSTalgorithm for Multiple Instance Learning that is also anAPR based method. In [10], Maron et al. introduced theconcept of Diversity Density and applied a two-stepgradient ascent with multiple starting points to find themaximum Diversity Density. Based on the DiversityDensity, Qi Zhang et al. [17] proposed EM-DDalgorithm. In their algorithm, it was assumed that eachbag has a representative instance and treated it as amissed value, and then the EM (ExpectationMaximization) method and Quasi-Newton method wereused to learn the representative instances and maximizethe Diversity Density simultaneously. [12] also used theEM method to do Multiple Instance Regression. JunWang et al. [15] explored the lazy learning approaches inMultiple Instance Learning. They developed two kNNbased algorithms: Citation-kNN and Bayesian-kNN. In[19], Jean-Daniel Zucker et al. tried to solve the MultipleInstance Learning problem with decision trees anddecision rules. Jan Ramon et al. [11] proposed theMultiple Instance Neural Network. Stuart Andrews et al.[2] utilized the Support Vector Machine in MultipleInstance Learning
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
2.2 Nhiều Instance Learning
Dietterich et al. [7] giới thiệu Multiple Instance
Học vấn đề và trình bày sơ thẩm Nhiều
thuật toán học cho việc học chữ nhật trục song song
(APR). Trong [3], Auer et al. đề xuất MULTIINST
thuật toán cho nhiều Instance Learning đó cũng là một
phương pháp dựa Tháng Tư. Trong [10], Maron et al. giới thiệu các
khái niệm về đa dạng Mật độ và áp dụng một hai bước
dốc đi lên với nhiều điểm khởi đầu để tìm ra
mật độ đa dạng tối đa. Dựa trên sự đa dạng
Density, Qi Zhang et al. [17] đề xuất EM-DD
thuật toán. Trong thuật toán của họ, người ta cho rằng mỗi
túi có một ví dụ đại diện và coi đó như là một
giá trị bị mất, và sau đó các phương pháp EM (ExpectationMaximization) và phương pháp Quasi-Newton đã được
sử dụng để tìm hiểu các trường hợp người đại diện và tối đa hóa
các Mật độ đa dạng cùng một lúc. [12] cũng sử dụng các
phương pháp EM làm Nhiều Instance Regression. Tháng Sáu
Wang et al. [15] khám phá các phương pháp học tập lười biếng trong
Nhiều Instance Learning. Họ đã phát triển hai thuật toán kNNbased: Citation-KNN và Bayesian-KNN. Trong
[19], Jean-Daniel Zucker et al. cố gắng để giải quyết Nhiều
Instance Học vấn đề với cây quyết định và
quy tắc quyết định. Jan Ramon et al. [11] đề xuất
Nhiều Instance Neural Network. Stuart Andrews et al.
[2] sử dụng các Support Vector Machine trong nhiều
Instance Learning
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: