over the change in f value between a parent and child, the child node  dịch - over the change in f value between a parent and child, the child node  Việt làm thế nào để nói

over the change in f value between

over the change in f value between a parent and child, the child node type and the change in d estimate between a parent and child, given the distance estimate of the parent and the type of the parent node.
The only non-integer term used by the incremental model is ∆f (c). Our implementation uses a large multi-dimensional array of fixed-sized histograms (see Appendix A) over ∆f (c) values. Each of the integer-valued features is used to index into the array, resulting in a histogram of the ∆f (c) values. By storing counts, the model can also estimate the branching factor of the search space by dividing the total number of nodes with a given d and t by the total number of their offspring. This branching factor will be used below to estimate the number of successors of a node when estimating the f distribution.
Zahavi et al. [23] found that it is often important to take into account infor- mation about the grandparent of a node for the distributions used in CDP; we also found this to be the case for the incremental model. To accomplish this, we combine the node types of the parent and grandparent into a single type. For example, on the 15-puzzle, if the parent state has the blank in the center and it was generated by a state with the blank on the side, then the parent type would be a side–center node.


Learning Off-line. We can learn an incremental ∆f model off-line using the same method as KRE and CDP. A large number of random states from a domain are sampled, and the children (or grandchildren) of each sampled state are gen- erated. The change in distance estimate ∆d(c) = d(c) − d(p), node type t(c) of the child node, node type t(p) of the parent node, and the distance estimate d(p) of the parent node are computed and a count of 1 is then added to the appropri- ate histogram for the (possibly real-valued) change in f , ∆f (c) = f (c) − f (p), between parent and child.


Learning On-line. An incremental ∆f model can also be learned on-line during search. Each time a node is generated, the ∆d(c), t(c), t(p) and d(p) values are computed for the parent node p and child node c and a count of 1 is added to the corresponding histogram for ∆f (c), as in the off-line case. In addition, when learning a ∆f model on-line, the depth of the parent node in the search tree is also known. We have found that this feature greatly improves accuracy in some domains (such as the vacuum domain described below) and so we always add it as a conditioning feature when learning an incremental model on-line.


Learning a Back-off Model. Due to data sparsity, and because the ∆f model will be used to extrapolate information about the search space for which it may not have any training data, a back-off version of the model may be needed. A back-off model is one that is conditioned on fewer features than the original model. When querying the model, if there is no training data for a given set of features, the more general back-off model is consulted instead. When learning a model on-line, because the model is learned on instance-specific data, we found


0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
qua sự thay đổi trong f giá trị giữa cha mẹ và trẻ em, trẻ em nút loại và thay đổi theo các ước tính d giữa cha mẹ và trẻ em, cho ước tính khoảng cách của phụ huynh và các loại của các nút cha mẹ.Thuật ngữ chỉ phòng không số nguyên được sử dụng bởi mô hình gia tăng là ∆f (c). Thực hiện của chúng tôi sử dụng một mảng đa chiều lớn có kích thước cố định histograms (xem phụ lục A) trên ∆f (c) giá trị. Mỗi người trong số các tính năng có giá trị số nguyên được sử dụng để chỉ số vào mảng, dẫn đến một biểu đồ của các giá trị ∆f (c). Bằng cách lưu trữ số lượng, các mô hình cũng có thể ước tính các yếu tố phân nhánh của không gian tìm kiếm bằng cách chia tổng số nút với một nhất định d và t của tổng số con cái của họ. Yếu tố phân nhánh này sẽ được sử dụng dưới đây để ước tính số lượng người thừa kế của một nút khi ước tính f phân phối.Zahavi et al. [23] phát hiện rằng nó thường là quan trọng để đưa vào tài khoản thông tin-mation về ông bà của một nút cho các bản phân phối được sử dụng trong khu thống kê; chúng tôi cũng thấy điều này là trường hợp cho mô hình gia tăng. Để thực hiện việc này, chúng tôi kết hợp các loại nút của cha mẹ và ông bà vào một loại duy nhất. Ví dụ, trên 15-puzzle, nếu nhà nước phụ huynh có chỗ trống ở giữa và nó đã được tạo ra bởi một nhà nước với chỗ trống ở phía sau đó loại phụ huynh sẽ là một nút bên-trung tâm.Học Off-line. Chúng tôi có thể tìm hiểu một mô hình gia tăng ∆f off-line sử dụng cùng một phương pháp như KRE và CDP. Một số lớn các kỳ ngẫu nhiên từ một tên miền được lấy mẫu, và trẻ em (hoặc cháu) của mỗi tiểu bang lấy mẫu là gen-erated. Sự thay đổi trong khoảng cách ước tính ∆d(c) = d(c) − d(p), nút loại t(c) của trẻ em nút, nút loại t(p) của các nút cha mẹ, và khoảng cách ước tính d(p) của các nút cha mẹ được tính và một số 1 sau đó thêm vào appropri-ăn biểu đồ cho sự thay đổi (có thể giá trị bất) Fa, ∆f (c) = f (c) − f (p) , giữa cha mẹ và trẻ em.Học trực tuyến. Một mô hình gia tăng ∆f cũng có thể được học trên mạng trong thời gian tìm kiếm. Mỗi khi một nút được tạo ra, ∆d(c), t(c), t(p) và d(p) các giá trị được tính cho các nút cha mẹ và trẻ em nút c và một số 1 được thêm vào biểu đồ tương ứng cho ∆f (c), như trong trường hợp không trực tuyến. Ngoài ra, khi học tập một on-line ∆f mô hình, độ sâu của các nút cha mẹ trong cây tìm kiếm cũng được tìm thấy. Chúng tôi đã tìm thấy rằng tính năng này rất nhiều cải thiện độ chính xác trong một số tên miền (ví dụ như vùng chân không mô tả dưới đây) và vì vậy chúng tôi luôn luôn thêm nó như là một tính năng lạnh khi học một mô hình gia tăng on-line.Học tập một trở lại-off mô hình. Do dữ liệu sparsity, và bởi vì các mô hình ∆f sẽ được sử dụng để ngoại suy các thông tin về không gian tìm kiếm mà nó có thể không có bất kỳ dữ liệu đào tạo, một trở lại ra phiên bản của mô hình có thể cần thiết. Một trở lại-off mô hình là một trong đó lạnh trên các tính năng ít hơn so với mô hình ban đầu. Khi truy vấn các mô hình, nếu có là không có dữ liệu đào tạo cho một tập hợp các tính năng, tổng quát hơn trở lại-off mô hình tư vấn để thay thế. Khi học tập một mô hình trên mạng, vì các mô hình học được trên dữ liệu trường hợp cụ thể, chúng tôi tìm thấy
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: