4.3 An Algorithm MCMC cho lấy mẫu từ C (D)
Tiếp theo chúng ta sẽ thảo luận về một chuỗi Markov thuật toán Monte Carlo rằng mẫu thống nhất từ một tập hợp con
của C (D) cho D. Chúng tôi chỉ có thể đảm bảo rằng mẫu sẽ là từ một khu phố của D trong C (D).
Cho dù khu vực này bao gồm tất cả các C (D) là một vấn đề mở.
4.3.1 Thuật toán TỔNG QUAN
Các MCMC thuật toán chúng tôi đề xuất có thể được xem như là một bước đi ngẫu nhiên trên một đồ thị vô hướng với C (D)
là tập hợp các đỉnh. Ký hiệu đồ thị này bằng G (D). Các đỉnh D1 và D2 của G (D) được kết nối bởi
một cạnh nếu chúng tôi lấy D2 từ D1 bằng cách thực hiện một thay đổi nhỏ ở địa phương để D1 (và ngược lại).
Chúng tôi kêu gọi sửa đổi địa phương này một trao đổi và sẽ xác định một cách chi tiết dưới đây. Đầu tiên, chúng ta hãy nhìn vào một cao
mô tả mức độ của thuật toán.
Nói chung, khi sử dụng MCMC để lấy mẫu từ một phân phối, chúng ta phải xây dựng các Markov
Chain để phân phối văn phòng phẩm của mình bằng phân phối mục tiêu chúng tôi muốn mẫu từ. Nếu
tất cả các đỉnh của G (D) là mức độ bình đẳng, sự phân phối văn phòng phẩm sẽ được phân phối đều.
Khi chúng ta muốn mẫu thống nhất từ C (D), điều này sẽ được tối ưu. Tuy nhiên, nó chỉ ra rằng
cách chúng ta định nghĩa đồ thị G (D) không dẫn đến các đỉnh có cùng số
đỉnh lân cận. Để khắc phục điều này, chúng tôi sử dụng các thuật toán Metropolis-Hastings (xem, ví dụ, Gelman
et al., 2004) để chọn các trạng thái tiếp theo. Ký hiệu là N (Di) tập hợp các nước láng giềng của đỉnh Di trong
G (D). Khi chuỗi là Di, chúng tôi thống nhất chọn một cách ngẫu nhiên các vertex Di + 1 từ N (Di). Các
chuyển động dây chuyền đến Di + 1 với xác suất
đó là, di chuyển được chấp nhận luôn khi Di + 1 có một mức độ nhỏ hơn, và nếu không chúng tôi di chuyển với một
xác suất giảm khi mức độ của Di + 1 tăng. Nếu chuỗi không di chuyển, nó sẽ nằm ở
trạng thái Di và cố gắng để di chuyển một lần nữa (có thể với một số đỉnh lân cận khác) trong các bước tiếp theo.
Nó rất dễ dàng để thấy rằng đây biến đổi ngẫu nhiên đi bộ có tài sản của hội tụ để mong muốn
một bộ đồng phục phân phối trên tập các đỉnh. Ký hiệu là p (Di) phân phối mục tiêu chúng tôi muốn
để lấy mẫu từ. Trong trường hợp này p (Di) là phân bố đồng đều trên C (D). Do đó, chúng ta phải có
p (Di) = p (Di + 1) = | C (D) | -1. Các thuật toán Metropolis-Hastings nhảy đến trạng thái tiếp theo Di + 1 với
xác suất min (r, 1), nơi
Trên J (· | ·) là một phân phối đề nghị, mà trong trường hợp này chỉ đơn giản là sự phân bố đồng đều trên các
hàng xóm của Di cho tất cả tôi. Đó là, chúng ta có J (Di + 1 | Di) = | N (Di) | -1 và J (Di | Di + 1) = | N (Di + 1) | -1.
Khi điều này được thay thế vào phương trình 14 cùng với thực tế là p (Di) = p (Di + 1), chúng tôi có được phương trình
13.
D Given, một thủ tục đơn giản để lấy mẫu một ~D thống nhất từ C (D) hoạt động như sau: chúng ta
bắt đầu từ D = D0, chạy chuỗi Markov dẫn đến dữ liệu một chút thay đổi Di trên mỗi bước i.
Sau khi s bước chúng ta đang ở thiết Ds mà là ~D của chúng tôi. Chúng tôi lặp lại quá trình này cho đến khi đủ mẫu từ
C (D) đã thu được. Nó là rất quan trọng để chạy các chuỗi Markov thời gian đủ dài (có một lượng lớn
đủ s), do đó, các mẫu như không tương quan càng tốt với điểm xuất phát triển, cũng như
độc lập với nhau. Chúng tôi sẽ thảo luận về một heuristic cho việc đánh giá các bước đúng con số dưới đây.
đang được dịch, vui lòng đợi..