Giới thiệuMột quá trình ngẫu nhiên X={X(t),t∈T}là một tập hợp các biến ngẫu nhiên. Rằnglà, cho mỗi t trong chỉ mục thiết lập T, X(t) là một biến ngẫu nhiên. Chúng ta thường giải thícht như thời gian và gọi X(t) bang trình lúc thời gian t. Nếu chỉ số đặt T là mộttập hợp đếm được, nói T={0,1,2,...},chúng ta nói rằng X là một thời gian rời rạc ngẫu nhiênxử lý, trong khi nếu T bao gồm của một liên tục của giá trị có thể, chúng ta nói rằng X làmột quá trình ngẫu nhiên liên tục thời gian.Inthischapterweconsider adiscretetimestochasticprocess Xn,n=0,1,2,...mà phải mất trên một finite hoặc đếm được số lượng các giá trị có thể. Trừ khi nếu khôngđã đề cập, này tập hợp các giá trị có thể sẽ được biểu hiện bằng các thiết lập của vôsố nguyên 0,1,2,.... Tôif Xn=tôi,sau đó quá trình được gọi là bang tôi lúc thời gian n.Chúng tôi giả sử rằng bất cứ khi nào trình là thuộc bang, có là một xác suất fixed Ptôi,jrằng nó tiếp theo sẽ trong bang j. Có nghĩa là, chúng tôi giả sử rằngP{Xn+1=j|Xn=tôi,Xn−1=tôin−1,...,X0=tôi0}=Ptôi,j(4.1)cho tất cả các tiểu bang tôi0,tôi1,...,tôin−1,tôi,j và tất cả n≥0.Một quá trình ngẫu nhiên được biết đếnnhư là một chuỗi Markov. Phương trình (4.1) có thể được hiểu như là nói rằng, cho một MarkovChuỗi, sự phân bố có điều kiện của bất kỳ nhà nước tương lai Xn+1,cho các tiểu bang trong quá khứX0,X1,...,Xn−1và nhà nước hiện nay Xn,là độc lập của các tiểu bang trong quá khứ vàphụ thuộc chỉ vào nhà nước hiện nay. Có nghĩa là, xác định trạng thái hiện tại, quá khứ vàCác tiểu bang trong tương lai của một chuỗi Markov là độc lập.Giá trị Ptôi,jđại diện cho xác suất rằng quá trình sẽ, khi trong nhà nước tôi,tiếp theo, làm cho một chuyển đổi thành bang j. Như xác suất là vô và quá trìnhphải thực hiện một quá trình chuyển đổi thành một số tiểu bang, chúng tôi cóPtôi,j≥0,_jPtôi,j=1103 1044Xích MarkovCho P biểu thị ma trận của One-bước chuyển tiếp xác suất Ptôi,jP=P0,0P0,1...P0,j...P1,0P1,1...P1,j..................Ptôi,0Ptôi,1...Ptôi,j..................Ví dụ 4.1aXem xét một hệ thống thông tin liên lạc mà truyền các chữ số0và 1. Mỗi chữ số truyền phải đi qua nhiều giai đoạn, tại mỗi trong số đóđó là một xác suất p các chữ số đã nhập sẽ được không thay đổi khi nó lá.Cho Xnbiểu thị chữ số vào giai đoạn thứ n, sau đó{Xn,n≥0}là hai nhà nướcCó một xác suất chuyển đổi ma trận xích MarkovP= p1−p1−PPVí dụ 4.1bGiả sử rằng cho dù trời mưa vào ngày hôm nay phụ thuộc vào trước đóđiều kiện thời tiết chỉ từ hai ngày qua. Specifically, giả sử rằng nếu nó đãtrời mưa hai ngày qua, sau đó nó sẽ mưa vào ngày mai với xác suất 0.7;Nếu itrained vào ngày hôm nay nhưng không ngày hôm qua, thì itwill mưa vào ngày mai với xác suất 0.5; Nếutrời mưa vào ngày hôm nay nhưng không phải hôm nay, sau đó nó sẽ mưa vào ngày mai với xác suất 0.4; Nếu nóđã không mưa trong hai ngày vừa qua, sau đó nó sẽ mưa vào ngày mai với xác suất 0.2.Nếu chúng ta để cho nhà nước tại thời gian n phụ thuộc vào việc nó mưa vào ngày n, sau đó, cácngay trước sẽ không là một xích Markov (tại sao không?). Tuy nhiên, chúng tôi có thể biến nóvào một Markov chuỗi bằng cách cho phép tiểu bang trên bất kỳ ngày nào được xác định bởi thời tiếtđiều kiện trong ngày hôm đó và người trước. Ví dụ, chúng tôi có thể nóiquá trình này trongbang 0Nếu trời mưa ngày hôm nay và ngày hôm quanhà nước 1Nếu trời mưa vào ngày hôm nay nhưng không vào ngày hôm naynhà nước 2Nếu trời mưa vào ngày hôm nay nhưng không phải hôm naynhà nước 3Nếu trời mưa ngày hôm nay cũng như hôm quaCác ngay trước sẽ sau đó đại diện cho một chuỗi Markov bốn-nhà nước chuyển tiếp cóma trận khả năng dễ dàng hiển thị để như sau:P=0.700.300.500.5000.400.600.200.8 4.2.Phương trình Chapman-Kolmogorov1054.2.Phương trình Chapman-KolmogorovXác suất n-bước chuyển tiếp Pntôi,jtrong Markov chuỗi là defined như condi-xác suất tế, cho rằng chuỗi hiện trạng thái tôi, rằng nó sẽ ở nhà nướcj sau khi quá trình chuyển đổi thêm n. Đó làPntôi,j=P{Xn+m=j|Xm=tôi},n≥0,tôi,j≥0Tất nhiên P1tôi,j=Ptôi,j.Phương trình Chapman-Kolmogorov cung cấp một phương thứctính toán các xác suất n-bước. Các phương trìnhPn+mtôi,j=∞_k=0Pntôi,kPmk,j(4.2)và có nguồn gốc bằng cách ghi nhận rằng Pntôi,kPmk,jlà xác suất mà chuỗi, hiện đang trongnhà nước tôi, sẽ đi đến nhà nước j sau khi n+m chuyển tiếp thông qua một con đường sẽ đưa nó vào nhà nướck ở sự chuyển đổi thứ n. Do đó, tổng các xác suất trong tất cả Trung cấpkỳ k mang lại khả năng mà quá trình sẽ trong bang j sau khi n+mquá trình chuyển đổi. Chính thức, hiện cóPn+mtôi,j=P{Xn+m=j|X0=tôi}=∞_k=0P{Xn+m=j,Xn=k|X0=tôi}=∞_k=0P{Xn+m=j|Xn=k,X0=tôi}P{Xn=k|X0=tôi}=∞_k=0Pmk,jPntôi,kNếu chúng ta để P(n)biểu thị ma trận của n-bước chuyển tiếp xác suất Pntôi,j, sau đó, cácPhương trình Chapman-Kolmogorov khẳng định rằngP(n+m)=P(n)∙P(m)nơi dấu chấm đại diện cho phép nhân ma trận. Do đó,P(2)=P(1+1)=P∙P=P2và bằng quy nạp,P(n)=P(n−1+1)=P(n−1)∙P=PnCó nghĩa là, Ma trận xác suất n-bước chuyển tiếp có thể được thu được bằng cách nhânma trận P của chính nó lần n. 1064Xích MarkovVí dụ 4.2aCho rằng, trong ví dụ 4.1a, trời mưa trên cả hai thứ hai vàThứ ba. Xác suất nó sẽ mưa vào ngày thứ năm là gì?Giải pháp:Bởi vì ma trận khả năng chuyển tiếpP=0.700.300.500.5000.400.600.200.8ma trận khả năng hai bước chuyển tiếp làP2=0.490.120.210.180.350.200.150.300.200.120.200.480.100.160.100.64Bởi vì chuỗi trong bang 0 ngày thứ ba, và bởi vì nó sẽ mưa trên Thứ năm -ngày nếu dãy là ở một trong hai nhà nước 0 hay nhà nước 1 ngày hôm đó, xác suất mong muốn làP20,0+P20,1=0.49+0.12=0.61✷4.3.Classification quốc giaBang j được cho là có thể truy cập từ nhà nước tôi nếu Pntôi,j>0cho một số n≥0.Lưu ý rằngĐiều này ngụ ý rằng j nhà nước là có thể truy cập từ nhà nước tôi nếu và chỉ nếu, bắt đầu từ nhà nước tôi,nó có thể quá trình sẽ bao giờ trong bang j. Điều này là đúng bởi vì nếu j là khôngcó thể truy cập từ tôi, sau đóP{bao giờ nhậpj|bắt đầu trong tôi}=P_∞_n=0{Xn=j}|X0=tôi_≤∞_n=0P{Xn=j|X0=tôi}=0Bởi vìP0tôi,tôi=P{X0=tôi|X0=tôi}=1nó theo bất kỳ tiểu bang có thể truy cập từ chính nó. Nếu nhà nước j có thể truy cập từ nhà nước tôi,và nhà nước tôi có thể truy cập từ bang j, sau đó chúng tôi nói rằng tôi và j giao tiếp.Giao tiếp giữa các tiểu bang i và j được thể hiện tượng trưng của tôi↔j. 4.3.Classification quốc gia107Các thông tin liên lạc quan hệ satisfies ba đặc tính sau:1.tôi↔tôi2.Nếu tôi↔j sau đó j↔tôi3.Nếu tôi↔j và j↔k sau đó tôi↔kThuộc tính 1 và 2 theo ngay lập tức từ definition truyền thông. Đểchứng minh 3, giả sử rằng tôi liên lạc với j và j liên lạc với k. Sau đó,có tồn tại số nguyên n và m như vậy đó Pntôi,jPmj,k>0.Bởi Chapman-Kolmogorovphương trình,Pn+mtôi,k=_rPntôi,rPmr,k≥Pntôi,jPmj,k>0Do đó nhà nước k có thể truy cập từ nhà nước tôi. Bởi cùng một đối số, chúng tôi có thể thấy rằngnhà nước tôi có thể truy cập từ nhà nước k,hoàn thành verification bất động sản 3.Hai tiểu bang giao tiếp được gọi là học cùng lớp. Nó là một cách dễ dànghậu quả của thuộc tính 1, 2, và 3 rằng bất kỳ lớp học hai kỳ là một trong haigiống hệt nhau hoặc các. Nói cách khác, khái niệm về giao tiếp chia cáckhông gian trạng thái mặc vào một số các lớp học riêng biệt. Chuỗi Markov được gọi làirreducible nếu có chỉ có một lớp, có nghĩa là, nếu tất cả tiểu bang giao tiếp với nhaukhác.Ví dụ 4.3AXem xét xích Markov bao gồm ba tiểu bang0,1,2,và có quá trình chuyển đổi xác suất ma trậnP=1 21 201 21 41 401 32 3Nó rất dễ dàng để xác minh rằng này chuỗi Markov irreducible. Ví dụ, nó làcó thể đi từ bang 0 đến bang 2 vì0→1→2Đó là, một cách để nhận được từ nhà nước 0 đến nhà nước 2 là để đi từ bang 0 đểnhà nước 1 (với xác suất 1/2)và sau đó đi từ nhà nước 1 trạng thái 2 (với xác suất1/4).✷Ví dụ 4.3bXem xét một xích Markov bao gồm bốn kỳ 0, 1, 2,3và có quá trình chuyển đổi xác suất ma trậnP=121 2001 21 2001 41 41 41 40001 1084Markov ChainsThe classes of this Markov chain are{0,1},{2},and{3}.Note that while state 0(or 1) is accessible from state 2, the reverse is not true. As state 3 is an absorbingstate (i.e., P3,3=1),no other state is accessible from it.✷For any state i, let f denote the probability that, starting in state i, the processiwill ever reenter that state. State i is said to be recurrent if fi=1,and transientif fi<1.Suppose now that the process starts in state i, and i is recurrent. Then,with probability 1, the process will eventually reenter state i. However, by thedefinition of a Markov chain, it follows that the process will be probabilisticallystarting over again when it reenters state i and, therefore, state i will eventually bevisited a second time. Continual repetition of this argument leads to the conclusionthat if state i is recurrent then, starting in state i, the process will reenter state iagain and again and again — in fact, infinitely often. On the other hand, supposethat state i is transient. In this case, each time the process enters state i there willbe a positive probability, namely, 1−fi,that it will never again enter that state.Therefore, starting in state i, the probability that the process will be in state i forexactly n time periods equals fn−1i(1−f )i,n≥1.In other words, if state i istransient then, starting in state i, the number
đang được dịch, vui lòng đợi..
