It is clear that directly mapping the observational uncertainty into a dịch - It is clear that directly mapping the observational uncertainty into a Việt làm thế nào để nói

It is clear that directly mapping t

It is clear that directly mapping the observational uncertainty into a likelihood ratio only results in the identical belief for the node in question (as intended in Jeffrey conditionalization) when the priors are uniform. When the priors are non-uniform, a likelihood ratio of 4:1 will increase the belief, but not necessarily to the intended degree.
Some people feel this is an advantage of this representation, supposedly indicating that the observation is an external “opinion” from someone whose priors are unknown. However, if we wish to represent unknown priors, we have no business
inferring a posterior at all!
If we really want the uncertain evidence to shift the beliefs to Bel(X = T) = P(X = TjV) = 0:8, then we can still use a virtual node and likelihood ratio approach, but we need to compute the ratio properly. Let’s return to our earthquake example.
Recalling Definition 1.6, P(EjV) = 0:8 means O(E = TjV) = 4. Since (by oddslikelihood
Bayes’ theorem 1.5)


This ratio is much higher than the one used with uniform priors, which is necessary in order to shift the belief in Earthquake from its very low prior of 0.02 to 0.8. We note that some software packages do in fact allow the posterior to be fixed in this way, e.g. Netica, which calls it “calibration.”

3.4.2 Virtual nodes in the message passing algorithm
When implementing a message passing inference algorithm, we don’t actually need to add the V node. Instead, the virtual node is connected by a virtual link as a child to the node it is “observing.” In the message passing algorithm, these links only carry information one way, from the virtual node to the observed variable. For our earthquake example, the virtual node V represents the virtual evidence on E. There are no parameters l(V), but instead it sends a lV (E) message to E. The virtual node and the message it sends to E is shown in Figure 3.6.

3.4.3 Multiple virtual evidence
The situation may also arise where there is a set, or a sequence, of multiple uncertain observations for the same variable. For example, there may be multiple witnesses for the same event, or a sensor may be returning a sequence of readings for the same variable over time.


FIGURE 3.6: Virtual evidence handled through virtual node V for earthquake node E, with l message in message passing algorithm.
This is straightforward to represent using one virtual child node for each observation, as shown in Figure 3.7(a). The inference algorithms work in exactly the same way, passing up one likelihood vector for each observation. However, if the observations are not independent, then the dependencies must be represented explicitly by modeling with actual (rather than “virtual”) nodes. Figure 3.7(b) shows an example of modeling dependencies, where the first witness tells all the other witnesses what she thought she saw.


FIGURE 3.7: Multiple uncertain evidence for the same node can be handled by having one virtual node for each: (a) when the observations are independent (b) dependencies between observations should be represented explicitly.


3.5 Exact inference in multiply-connected networks
In the most general case, the BN structure is a (directed acyclic) graph, rather than simply a tree. This means that at least two nodes are connected by more than one path in the underlying undirected graph. Such a network is multiply-connected and occurs when some variable can influence another through more than one causal mechanism.
The metastatic cancer network shown in Figure 3.8 is an example. The two causes of C (S and B) share a common parent, M. For this BN, there is an undirected loop around nodes M, B, C and S. In such networks, the message passing algorithm for polytrees presented in the previous section does not work. Intuitively, the reason is that with more than one path between two nodes, the same piece of evidence about one will reach the other through two paths and be counted twice. There are many ways of dealing with this problem in an exact manner; we shall present the most popular of these.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
It is clear that directly mapping the observational uncertainty into a likelihood ratio only results in the identical belief for the node in question (as intended in Jeffrey conditionalization) when the priors are uniform. When the priors are non-uniform, a likelihood ratio of 4:1 will increase the belief, but not necessarily to the intended degree.Some people feel this is an advantage of this representation, supposedly indicating that the observation is an external “opinion” from someone whose priors are unknown. However, if we wish to represent unknown priors, we have no businessinferring a posterior at all!If we really want the uncertain evidence to shift the beliefs to Bel(X = T) = P(X = TjV) = 0:8, then we can still use a virtual node and likelihood ratio approach, but we need to compute the ratio properly. Let’s return to our earthquake example.Recalling Definition 1.6, P(EjV) = 0:8 means O(E = TjV) = 4. Since (by oddslikelihoodBayes’ theorem 1.5)This ratio is much higher than the one used with uniform priors, which is necessary in order to shift the belief in Earthquake from its very low prior of 0.02 to 0.8. We note that some software packages do in fact allow the posterior to be fixed in this way, e.g. Netica, which calls it “calibration.”3.4.2 Virtual nodes in the message passing algorithmWhen implementing a message passing inference algorithm, we don’t actually need to add the V node. Instead, the virtual node is connected by a virtual link as a child to the node it is “observing.” In the message passing algorithm, these links only carry information one way, from the virtual node to the observed variable. For our earthquake example, the virtual node V represents the virtual evidence on E. There are no parameters l(V), but instead it sends a lV (E) message to E. The virtual node and the message it sends to E is shown in Figure 3.6.3.4.3 Multiple virtual evidenceThe situation may also arise where there is a set, or a sequence, of multiple uncertain observations for the same variable. For example, there may be multiple witnesses for the same event, or a sensor may be returning a sequence of readings for the same variable over time.FIGURE 3.6: Virtual evidence handled through virtual node V for earthquake node E, with l message in message passing algorithm.This is straightforward to represent using one virtual child node for each observation, as shown in Figure 3.7(a). The inference algorithms work in exactly the same way, passing up one likelihood vector for each observation. However, if the observations are not independent, then the dependencies must be represented explicitly by modeling with actual (rather than “virtual”) nodes. Figure 3.7(b) shows an example of modeling dependencies, where the first witness tells all the other witnesses what she thought she saw.FIGURE 3.7: Multiple uncertain evidence for the same node can be handled by having one virtual node for each: (a) when the observations are independent (b) dependencies between observations should be represented explicitly.3.5 Exact inference in multiply-connected networksIn the most general case, the BN structure is a (directed acyclic) graph, rather than simply a tree. This means that at least two nodes are connected by more than one path in the underlying undirected graph. Such a network is multiply-connected and occurs when some variable can influence another through more than one causal mechanism.The metastatic cancer network shown in Figure 3.8 is an example. The two causes of C (S and B) share a common parent, M. For this BN, there is an undirected loop around nodes M, B, C and S. In such networks, the message passing algorithm for polytrees presented in the previous section does not work. Intuitively, the reason is that with more than one path between two nodes, the same piece of evidence about one will reach the other through two paths and be counted twice. There are many ways of dealing with this problem in an exact manner; we shall present the most popular of these.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Rõ ràng là trực tiếp lập bản đồ không chắc chắn quan sát vào một tỷ lệ khả năng kết quả chỉ trong niềm tin giống hệt nhau cho các nút trong câu hỏi (như dự định ở Jeffrey conditionalization) khi priors là đồng bộ. Khi priors là không đồng đều, một tỷ lệ khả năng của 4:. 1 sẽ làm tăng niềm tin, nhưng không nhất thiết phải đến mức độ có ý định
Một số người cảm thấy đây là một lợi thế của đại diện này, được cho là chỉ ra rằng các quan sát là một "ý kiến" bên ngoài từ một người mà priors là chưa biết. Tuy nhiên, nếu chúng ta muốn đại diện cho priors không rõ, chúng tôi không có kinh doanh
Suy luận một hậu ở tất cả!
Nếu chúng ta thực sự muốn các bằng chứng chắc chắn để chuyển các tín ngưỡng để Bel (X = T) = P (X = TjV) = 0: 8, sau đó chúng ta vẫn có thể sử dụng một cách tiếp cận nút và khả năng tỷ lệ ảo, nhưng chúng ta cần phải tính toán tỷ lệ đúng. Hãy quay trở lại ví dụ trận động đất của chúng tôi.
Nhắc lại Định nghĩa 1.6, P (EjV) = 0: 8 có nghĩa là O (E = TjV) = 4. Vì (bởi oddslikelihood
định lý Bayes '1,5) tỷ lệ này cao hơn nhiều so với cái được sử dụng với priors đồng phục , đó là cần thiết để thay đổi niềm tin trong trận động đất từ rất thấp trước đó đối với 0,02-0,8. Chúng tôi lưu ý rằng một số gói phần mềm làm trong thực tế cho phép sau được cố định bằng cách này, ví dụ như Netica, mà gọi đó là "hiệu chuẩn". 3.4.2 nút ảo trong thông qua thuật toán Khi thực hiện nhắn qua thuật toán suy luận, chúng tôi don ' t thực sự cần bổ sung thêm nút V. Thay vào đó, các nút ảo được kết nối bởi một liên kết ảo như một đứa trẻ đến nút đó là "quan sát." Trong tin nhắn qua thuật toán, các đường kết nối mang thông tin một chiều, từ nút ảo để các biến quan sát. Ví dụ trận động đất của chúng tôi, các nút V ảo đại diện cho các bằng chứng ảo trên E. Không có thông số l (V), nhưng thay vào đó nó sẽ gửi một IV (E) thông báo đến E. Các nút ảo và tin nhắn nó gửi đến E được hiển thị trong hình 3.6. 3.4.3 Nhiều bằng chứng ảo tình hình này cũng có thể phát sinh khi có một bộ, hoặc một chuỗi, nhiều quan sát không chắc chắn cho các biến tương tự. Ví dụ, có thể có nhiều nhân chứng cho cùng một sự kiện, hay một bộ cảm biến có thể được trả lại một chuỗi các bài đọc cho cùng một biến theo thời gian. HÌNH 3.6: Virtual chứng cứ xử lý thông qua ảo nút V cho nút trận động đất E, với l tin trong thông điệp đi qua thuật toán. Đây là đơn giản để sử dụng đại diện cho một nút con ảo cho mỗi quan sát, như thể hiện trong hình 3.7 (a). Các thuật toán suy luận làm việc trong chính xác theo cùng một cách, đi qua up vector một khả năng cho mỗi quan sát. Tuy nhiên, nếu quan sát không độc lập, sau đó phụ thuộc phải được đại diện một cách rõ ràng bằng mô hình với thực tế (chứ không phải là "ảo") nút. Hình 3.7 (b) cho thấy một ví dụ về sự phụ thuộc mô hình, nơi mà các nhân chứng đầu tiên cho tất cả các nhân chứng khác những gì cô nghĩ rằng cô đã nhìn thấy. HÌNH 3.7: Nhiều bằng chứng chắc chắn cho cùng một nút có thể được xử lý bằng cách có một nút ảo cho mỗi: (a ) khi quan sát độc lập (b) phụ thuộc giữa các quan sát phải được thể hiện một cách rõ ràng. 3,5 suy luận chính xác trong các mạng nhân-kết nối Trong trường hợp chung nhất, cơ cấu BN là một acyclic đạo diễn) đồ thị (chứ không phải chỉ đơn giản là một cái cây. Điều này có nghĩa rằng ít nhất hai nút được kết nối bởi nhiều hơn một con đường trong đồ thị vô hướng cơ bản. Một mạng lưới như vậy là nhân-kết nối và xảy ra khi một số biến có thể ảnh hưởng đến nhau thông qua nhiều hơn một cơ chế quan hệ nhân quả. Các mạng di căn ung thư thể hiện trong Hình 3.8 là một ví dụ. Hai nguyên nhân của C (S và B) chia sẻ một cha chung, M. Đối với BN này, có một vòng lặp vô hướng xung quanh các nút M, B, C và S. Trong các mạng như vậy, thông qua thuật toán cho polytrees hiện trong trước phần không hoạt động. Bằng trực giác, lý do là có nhiều hơn một con đường giữa hai nút, cùng một mảnh bằng chứng về một sẽ đạt được thông qua hai con đường và được tính hai lần. Có rất nhiều cách để đối phó với vấn đề này một cách chính xác; chúng tôi sẽ trình bày phổ biến nhất trong số này.





















đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: