Further Aspects of CRFsMany further aspects of CRFs are attractive for dịch - Further Aspects of CRFsMany further aspects of CRFs are attractive for Việt làm thế nào để nói

Further Aspects of CRFsMany further

Further Aspects of CRFs
Many further aspects of CRFs are attractive for applica-tions and deserve further study. In this section we briefly
mention just two.
Conditional random fields can be trained using the expo-nential loss objective function used by the AdaBoost algo-rithm (Freund & Schapire, 1997). Typically, boosting is
applied to classification problems with a small, fixed num-ber of classes; applications of boosting to sequence labeling
have treated each label as a separate classification problem
(Abney et al., 1999). However, it is possible to apply the
parallel update algorithm of Collins et al. (2000) to op-timize the per-sequence exponential loss. This requires a
forward-backward algorithm to compute efficiently certain
feature expectations, along the lines of Algorithm T, ex-cept that each feature requires a separate set of forward and
backward accumulators.
Another attractive aspect of CRFs is that one can imple-ment efficient feature selection and feature induction al-gorithms for them. That is, rather than specifying in ad-vance which features of (X; Y) to use, we could start from
feature-generating rules and evaluate the benefit of gener-ated features automatically on data. In particular, the fea-ture induction algorithms presented in Della Pietra et al.
(1997) can be adapted to fit the dynamic programming
techniques of conditional random fields.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Xem thêm các khía cạnh của CRFs
nhiều hơn nữa các khía cạnh của CRFs là hấp dẫn cho applica-tions và xứng đáng hơn nữa nghiên cứu. Trong phần chúng tôi briefly
đề cập đến hai.
fields ngẫu nhiên có điều kiện có thể được đào tạo bằng cách sử dụng hội chợ triển lãm-nential mất khách quan chức năng được sử dụng bởi AdaBoost algo-rithm (Freund & Schapire, 1997). Thông thường, thúc đẩy là
áp dụng để classification vấn đề với một nhỏ, fixed num-ber của các lớp. Các ứng dụng thúc đẩy để tự ghi nhãn
đã điều trị nhãn mỗi là một vấn đề riêng biệt classification
(Abney và ctv., 1999). Tuy nhiên, nó có thể áp dụng các
song song Cập Nhật thuật toán của Collins et al. (2000) để op-timize mất mũ của một chuỗi. Điều này đòi hỏi một
các thuật toán ngược về phía trước để tính toán efficiently nhất định
đặc trưng với sự mong đợi, dọc theo dòng của thuật toán T, ex-cept mỗi tính năng đòi hỏi một tập hợp riêng biệt của chuyển tiếp và
lạc hậu ác quy.
một khía cạnh hấp dẫn khác của CRFs là rằng nó có thể imple-ment efficient tính năng lựa chọn và tính năng cảm ứng al-gorithms cho họ. Có nghĩa là, thay vì chỉ định trong quảng cáo-vance có tính năng của (X; Y) để sử dụng, chúng tôi có thể bắt đầu từ
tạo ra tính năng quy tắc và đánh giá chứa gener-ated tính năng tự động trên dữ liệu. Đặc biệt, các thuật toán công cụ fea-ture cảm ứng trình bày trong Della Pietra et al.
(1997) có thể được thích nghi để fit các chương trình năng động
kỹ thuật của điều kiện fields ngẫu nhiên.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Further Aspects of CRFs
Many further aspects of CRFs are attractive for applica-tions and deserve further study. In this section we briefly
mention just two.
Conditional random fields can be trained using the expo-nential loss objective function used by the AdaBoost algo-rithm (Freund & Schapire, 1997). Typically, boosting is
applied to classification problems with a small, fixed num-ber of classes; applications of boosting to sequence labeling
have treated each label as a separate classification problem
(Abney et al., 1999). However, it is possible to apply the
parallel update algorithm of Collins et al. (2000) to op-timize the per-sequence exponential loss. This requires a
forward-backward algorithm to compute efficiently certain
feature expectations, along the lines of Algorithm T, ex-cept that each feature requires a separate set of forward and
backward accumulators.
Another attractive aspect of CRFs is that one can imple-ment efficient feature selection and feature induction al-gorithms for them. That is, rather than specifying in ad-vance which features of (X; Y) to use, we could start from
feature-generating rules and evaluate the benefit of gener-ated features automatically on data. In particular, the fea-ture induction algorithms presented in Della Pietra et al.
(1997) can be adapted to fit the dynamic programming
techniques of conditional random fields.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: