4.3 An MCMC Algorithm for Sampling from C(D)Next we will discuss a Mar dịch - 4.3 An MCMC Algorithm for Sampling from C(D)Next we will discuss a Mar Việt làm thế nào để nói

4.3 An MCMC Algorithm for Sampling

4.3 An MCMC Algorithm for Sampling from C(D)
Next we will discuss a Markov chain Monte Carlo algorithm that samples uniformly from a subset
of C(D) given D. We can only guarantee that the sample will be from a neighborhood of D in C(D).
Whether this neighborhood covers all of C(D) is an open problem.
4.3.1 ALGORITHM OVERVIEW
The MCMC algorithm we propose can be seen as a random walk on an undirected graph with C(D)
as the set of vertices. Denote this graph by G(D). The vertices D1 and D2 of G(D) are connected by
an edge if we obtain D2 from D1 by performing a small local modification to D1 (and vice versa).
We call this local modification a swap and will define it in detail below. First, let us look at a high
level description of the algorithm.
In general, when using MCMC to sample from a distribution, we must construct the Markov
Chain so that its stationary distribution equals the target distribution we want to sample from. If
all vertices of G(D) are of equal degree, the stationary distribution will be the uniform distribution.
As we want to sample uniformly from C(D), this would be optimal. However, it turns out that the
way we have defined the graph G(D) does not result in the vertices having the same number of
neighboring vertices. To remedy this, we use the Metropolis-Hastings algorithm (see, e.g., Gelman
et al., 2004) for picking the next state. Denote by N(Di) the set of neighbors of the vertex Di in
G(D). When the chain is at Di, we pick uniformly at random the vertex Di+1 from N(Di). The
chain moves to Di+1 with probability
that is, the move is accepted always when Di+1 has a smaller degree, and otherwise we move with a
probability that decreases as the degree of Di+1 increases. If the chain does not move, it stays at the
state Di and attempts to move again (possibly to some other neighboring vertex) in the next step.
It is easy to show that this modified random walk has the desired property of converging to
a uniform distribution over the set of vertices. Denote by p(Di) the target distribution we want
to sample from. In this case p(Di) is the uniform distribution over C(D). Hence, we must have
p(Di) = p(Di+1) = |C(D)|−1. The Metropolis-Hastings algorithm jumps to the next state Di+1 with
probability min(r,1), where
Above J(·|·) is a proposal distribution, which in this case is simply the uniform distribution over the
neighbors of Di for all i. That is, we have J(Di+1|Di) = |N(Di)|−1 and J(Di|Di+1) = |N(Di+1)|−1.
When this is substituted into Equation 14 along with the fact that p(Di) = p(Di+1) we obtain Equation
13.
Given D, a simple procedure for sampling one ˜D uniformly from C(D) works as follows: we
start from D = D0, run the Markov chain resulting in slightly modified data Di on every step i.
After s steps we are at the set Ds which is our ˜D. We repeat this process until enough samples from
C(D) have been obtained. It is very important to run the Markov chain long enough (have a large
enough s), so that the samples are as uncorrelated as possible with the starting point D, as well as
independent of each other. We will discuss a heuristic for assessing the correct number steps below.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
4.3 An MCMC Algorithm for Sampling from C(D)Next we will discuss a Markov chain Monte Carlo algorithm that samples uniformly from a subsetof C(D) given D. We can only guarantee that the sample will be from a neighborhood of D in C(D).Whether this neighborhood covers all of C(D) is an open problem.4.3.1 ALGORITHM OVERVIEWThe MCMC algorithm we propose can be seen as a random walk on an undirected graph with C(D)as the set of vertices. Denote this graph by G(D). The vertices D1 and D2 of G(D) are connected byan edge if we obtain D2 from D1 by performing a small local modification to D1 (and vice versa).We call this local modification a swap and will define it in detail below. First, let us look at a highlevel description of the algorithm.In general, when using MCMC to sample from a distribution, we must construct the MarkovChain so that its stationary distribution equals the target distribution we want to sample from. Ifall vertices of G(D) are of equal degree, the stationary distribution will be the uniform distribution.As we want to sample uniformly from C(D), this would be optimal. However, it turns out that theway we have defined the graph G(D) does not result in the vertices having the same number ofneighboring vertices. To remedy this, we use the Metropolis-Hastings algorithm (see, e.g., Gelmanet al., 2004) for picking the next state. Denote by N(Di) the set of neighbors of the vertex Di inG(D). When the chain is at Di, we pick uniformly at random the vertex Di+1 from N(Di). Thechain moves to Di+1 with probabilitythat is, the move is accepted always when Di+1 has a smaller degree, and otherwise we move with aprobability that decreases as the degree of Di+1 increases. If the chain does not move, it stays at thestate Di and attempts to move again (possibly to some other neighboring vertex) in the next step.It is easy to show that this modified random walk has the desired property of converging toa uniform distribution over the set of vertices. Denote by p(Di) the target distribution we wantto sample from. In this case p(Di) is the uniform distribution over C(D). Hence, we must havep(Di) = p(Di+1) = |C(D)|−1. The Metropolis-Hastings algorithm jumps to the next state Di+1 withprobability min(r,1), whereAbove J(·|·) is a proposal distribution, which in this case is simply the uniform distribution over theneighbors of Di for all i. That is, we have J(Di+1|Di) = |N(Di)|−1 and J(Di|Di+1) = |N(Di+1)|−1.When this is substituted into Equation 14 along with the fact that p(Di) = p(Di+1) we obtain Equation13.Given D, a simple procedure for sampling one ˜D uniformly from C(D) works as follows: westart from D = D0, run the Markov chain resulting in slightly modified data Di on every step i.After s steps we are at the set Ds which is our ˜D. We repeat this process until enough samples fromC(D) have been obtained. It is very important to run the Markov chain long enough (have a largeenough s), so that the samples are as uncorrelated as possible with the starting point D, as well asindependent of each other. We will discuss a heuristic for assessing the correct number steps below.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
4.3 An Algorithm MCMC cho lấy mẫu từ C (D)
Tiếp theo chúng ta sẽ thảo luận về một chuỗi Markov thuật toán Monte Carlo rằng mẫu thống nhất từ một tập hợp con
của C (D) cho D. Chúng tôi chỉ có thể đảm bảo rằng mẫu sẽ là từ một khu phố của D trong C (D).
Cho dù khu vực này bao gồm tất cả các C (D) là một vấn đề mở.
4.3.1 Thuật toán TỔNG QUAN
Các MCMC thuật toán chúng tôi đề xuất có thể được xem như là một bước đi ngẫu nhiên trên một đồ thị vô hướng với C (D)
là tập hợp các đỉnh. Ký hiệu đồ thị này bằng G (D). Các đỉnh D1 và D2 của G (D) được kết nối bởi
một cạnh nếu chúng tôi lấy D2 từ D1 bằng cách thực hiện một thay đổi nhỏ ở địa phương để D1 (và ngược lại).
Chúng tôi kêu gọi sửa đổi địa phương này một trao đổi và sẽ xác định một cách chi tiết dưới đây. Đầu tiên, chúng ta hãy nhìn vào một cao
mô tả mức độ của thuật toán.
Nói chung, khi sử dụng MCMC để lấy mẫu từ một phân phối, chúng ta phải xây dựng các Markov
Chain để phân phối văn phòng phẩm của mình bằng phân phối mục tiêu chúng tôi muốn mẫu từ. Nếu
tất cả các đỉnh của G (D) là mức độ bình đẳng, sự phân phối văn phòng phẩm sẽ được phân phối đều.
Khi chúng ta muốn mẫu thống nhất từ C (D), điều này sẽ được tối ưu. Tuy nhiên, nó chỉ ra rằng
cách chúng ta định nghĩa đồ thị G (D) không dẫn đến các đỉnh có cùng số
đỉnh lân cận. Để khắc phục điều này, chúng tôi sử dụng các thuật toán Metropolis-Hastings (xem, ví dụ, Gelman
et al., 2004) để chọn các trạng thái tiếp theo. Ký hiệu là N (Di) tập hợp các nước láng giềng của đỉnh Di trong
G (D). Khi chuỗi là Di, chúng tôi thống nhất chọn một cách ngẫu nhiên các vertex Di + 1 từ N (Di). Các
chuyển động dây chuyền đến Di + 1 với xác suất
đó là, di chuyển được chấp nhận luôn khi Di + 1 có một mức độ nhỏ hơn, và nếu không chúng tôi di chuyển với một
xác suất giảm khi mức độ của Di + 1 tăng. Nếu chuỗi không di chuyển, nó sẽ nằm ở
trạng thái Di và cố gắng để di chuyển một lần nữa (có thể với một số đỉnh lân cận khác) trong các bước tiếp theo.
Nó rất dễ dàng để thấy rằng đây biến đổi ngẫu nhiên đi bộ có tài sản của hội tụ để mong muốn
một bộ đồng phục phân phối trên tập các đỉnh. Ký hiệu là p (Di) phân phối mục tiêu chúng tôi muốn
để lấy mẫu từ. Trong trường hợp này p (Di) là phân bố đồng đều trên C (D). Do đó, chúng ta phải có
p (Di) = p (Di + 1) = | C (D) | -1. Các thuật toán Metropolis-Hastings nhảy đến trạng thái tiếp theo Di + 1 với
xác suất min (r, 1), nơi
Trên J (· | ·) là một phân phối đề nghị, mà trong trường hợp này chỉ đơn giản là sự phân bố đồng đều trên các
hàng xóm của Di cho tất cả tôi. Đó là, chúng ta có J (Di + 1 | Di) = | N (Di) | -1 và J (Di | Di + 1) = | N (Di + 1) | -1.
Khi điều này được thay thế vào phương trình 14 cùng với thực tế là p (Di) = p (Di + 1), chúng tôi có được phương trình
13.
D Given, một thủ tục đơn giản để lấy mẫu một ~D thống nhất từ C (D) hoạt động như sau: chúng ta
bắt đầu từ D = D0, chạy chuỗi Markov dẫn đến dữ liệu một chút thay đổi Di trên mỗi bước i.
Sau khi s bước chúng ta đang ở thiết Ds mà là ~D của chúng tôi. Chúng tôi lặp lại quá trình này cho đến khi đủ mẫu từ
C (D) đã thu được. Nó là rất quan trọng để chạy các chuỗi Markov thời gian đủ dài (có một lượng lớn
đủ s), do đó, các mẫu như không tương quan càng tốt với điểm xuất phát triển, cũng như
độc lập với nhau. Chúng tôi sẽ thảo luận về một heuristic cho việc đánh giá các bước đúng con số dưới đây.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: