Conditional random fields can be trained using the exponential loss obj dịch - Conditional random fields can be trained using the exponential loss obj Việt làm thế nào để nói

Conditional random fields can be tra

Conditional random fields can be trained using the exponential loss objective function used by the AdaBoost algorithm (Freund & Schapire, 1997). Typically, boosting is
applied to classification problems with a small, fixed number of classes; applications of boosting to sequence labeling
have treated each label as a separate classification problem
(Abney et al., 1999). However, it is possible to apply the parallel update algorithm of Collins et al. (2000) to optimize the persequence exponential loss. This requires a
forward-backward algorithm to compute efficiently certain
feature expectations, along the lines of Algorithm T, ex-cept that each feature requires a separate set of forward and
backward accumulators.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Có điều kiện ngẫu nhiên fields có thể được đào tạo bằng cách sử dụng mũ mất hàm mục tiêu được sử dụng bởi các thuật toán AdaBoost (Freund & Schapire, 1997). Thông thường, thúc đẩy là
áp dụng để classification vấn đề với một nhỏ, fixed số lượng các lớp. Các ứng dụng thúc đẩy để tự ghi nhãn
đã điều trị nhãn mỗi là một vấn đề riêng biệt classification
(Abney và ctv., 1999). Tuy nhiên, nó có thể áp dụng các thuật toán song song các Cập Nhật của Collins et al. (2000) để tối ưu hóa sự mất mát mũ persequence. Điều này đòi hỏi một
các thuật toán ngược về phía trước để tính toán efficiently nhất định
đặc trưng với sự mong đợi, dọc theo dòng của thuật toán T, ex-cept mỗi tính năng đòi hỏi một tập hợp riêng biệt của chuyển tiếp và
ác-quy lạc hậu.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Có điều kiện ruộng ngẫu nhiên có thể được đào tạo sử dụng sự mất mát hàm mục tiêu theo cấp số nhân được sử dụng bởi các thuật toán AdaBoost (Freund & Schapire, 1997). Thông thường, thúc đẩy được
áp dụng để phân loại các vấn đề fi cation với một fi cố định số lượng nhỏ các lớp học; các ứng dụng thúc đẩy để dán nhãn tự
đã đối xử với nhau như là một nhãn phân loại vấn đề fi cation riêng biệt
(Abney et al, 1999.). Tuy nhiên, nó có thể áp dụng các thuật toán cập nhật song song của Collins et al. (2000) để tối ưu hóa persequence mất mũ. Điều này đòi hỏi một
thuật toán chuyển tiếp-backward để tính toán fi ef ciently một số
tính năng mong đợi, dọc theo dòng thuật toán T, cựu khái rằng mỗi tính năng đòi hỏi phải có một bộ riêng biệt của về phía trước và
lạc hậu ắc quy.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: