Chapter 22 gave us a logical model of language: we used CFGs and DCGs  dịch - Chapter 22 gave us a logical model of language: we used CFGs and DCGs  Việt làm thế nào để nói

Chapter 22 gave us a logical model

Chapter 22 gave us a logical model of language: we used CFGs and DCGs to characterize a string as either a member or a nonmember of a language. In this section, we will introduce several probabilistic models. Probabilistic models have several advantages. They can conveniently be trained from data: learning is just a matter of counting occurrences (with some allowances for the errors of relying on a small sample size). Also, they are more robust (because they can accept any string, albeit with a low probability), they reflect the fact that not 100% of speakers agree on which sentences are actually part of a language, and they can be used for disambiguation: probability can be used to choose the most likely interpretation.
A probabilistic language model defines a probability distribution over a (possibly infinite) set of strings. Example models that we have already seen are the bigram and trigram language models used in speech recognition (Section 15.6). A unigram model assigns a probability P(w) to each word in the lexicon. The model assumes that words are chosen independently, so the probability of a string is just the product of the probability of its words, given by ni P(wi). The following 20-word sequence was generated at random from a unigram model of the words in this book:
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Chương 22 đã cho chúng tôi một mô hình hợp lý của ngôn ngữ: chúng tôi sử dụng CFGs và DCGs để mô tả một chuỗi như là một thành viên hoặc một nonmember của một ngôn ngữ. Trong phần này, chúng tôi sẽ giới thiệu một số mô hình xác suất. Xác suất các mô hình có một số lợi thế. Họ có thể thuận tiện được đào tạo từ dữ liệu: học tập là chỉ là một vấn đề tính xuất hiện (với một số khoản phụ cấp đối với các lỗi của dựa vào một kích thước mẫu nhỏ). Ngoài ra, họ là mạnh mẽ hơn (vì họ có thể chấp nhận bất kỳ chuỗi, mặc dù với một xác suất thấp), họ phản ánh một thực tế là không phải 100% người sử dụng đồng ý mà câu là thực sự là một phần của một ngôn ngữ, và họ có thể được sử dụng để định hướng: xác suất có thể được sử dụng để lựa chọn các giải thích có khả năng nhất.Một mẫu xác suất ngôn ngữ định nghĩa một phân bố xác suất hơn một bộ dây (có thể là vô hạn). Ví dụ các mô hình mà chúng tôi đã nhìn thấy những mô hình ngôn ngữ bigram và trigram được sử dụng trong bài phát biểu công nhận (phần 15.6). Một mô hình unigram gán một xác suất P(w) cho mỗi từ trong lexicon. Mô hình giả định rằng từ được lựa chọn một cách độc lập, do đó, xác suất của một chuỗi là chỉ là sản phẩm của xác suất của nó từ, được đưa ra bởi ni P(wi). Theo trình tự 20-word đã được tạo ra ngẫu nhiên từ một mô hình unigram trong những từ ngữ trong cuốn sách này:
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Chương 22 đã cho chúng tôi một mô hình hợp lý của ngôn ngữ: chúng tôi sử dụng CFGs và DCG để mô tả một chuỗi như là một trong hai thành viên hoặc một thành viên đệ của một ngôn ngữ. Trong phần này, chúng tôi sẽ giới thiệu một số mô hình xác suất. Mô hình xác suất có một số lợi thế. Họ có thể thuận tiện được đào tạo từ dữ liệu: học tập chỉ là một vấn đề xuất hiện đếm (với một số phụ cấp cho các lỗi dựa vào một kích thước mẫu nhỏ). Ngoài ra, họ là mạnh mẽ hơn (vì họ có thể chấp nhận bất kỳ chuỗi, mặc dù với một xác suất thấp), chúng phản ánh một thực tế rằng không phải 100% loa đồng ý mà câu thực sự là một phần của một ngôn ngữ, và chúng có thể được sử dụng để định hướng: xác suất có thể được sử dụng để lựa chọn các giải thích khả năng nhất.
một mô hình ngôn ngữ xác suất xác định một phân bố xác suất trên một tập hợp (có thể là vô hạn) của chuỗi. Ví dụ mô hình mà chúng ta đã thấy là các mô hình và ngôn ngữ Bigram trigram sử dụng trong nhận dạng tiếng nói (mục 15.6). Một mô hình unigram gán một xác suất P (w) cho mỗi từ trong từ vựng. Mô hình này giả định rằng từ được lựa chọn một cách độc lập, do đó xác suất của một chuỗi chỉ là sản phẩm của xác suất lời nói của mình, do ni P (wi). Sau chuỗi 20 từ được tạo ra ngẫu nhiên từ một mô hình unigram các từ trong cuốn sách này:
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: