4. Giới thiệu
Một quá trình ngẫu nhiên X
= {
X (t)
,
t
∈
T
}
là một tập hợp của các biến ngẫu nhiên. Đó
là, đối với mỗi t trong chỉ số bộ T, X (t) là một biến ngẫu nhiên. Chúng tôi thường giải thích ý
t là thời gian và gọi X (t) trạng thái của quá trình tại thời điểm t. Nếu các chỉ số thiết lập T là một
tập hợp đếm được, nói T
= {
0
,
1
,
2
, ...
}
,
chúng ta nói rằng X là một ngẫu nhiên thời gian rời rạc
quá trình, trong khi đó nếu T bao gồm một chuỗi các giá trị có thể, chúng ta nói rằng X là
một quá trình ngẫu nhiên thời gian liên tục.
Inthischapterweconsider adiscretetimestochasticprocess X
n
,
n
=
0
,
1
,
2
, ...
mà phải mất trên một nite fi hoặc số đếm được của các giá trị có thể. Trừ khi được
đề cập, thiết lập giá trị này có thể sẽ được ký hiệu là tập hợp các số không âm
số nguyên 0
,
1
,
2
, ...
.Tôi
f X
n
=
i
,
sau đó quá trình này được cho là ở trạng thái i tại thời điểm n.
Chúng tôi giả sử rằng bất cứ khi nào quá trình này là trong trạng thái i, có một fi cố định xác suất P
i
,
j
mà nó sẽ tới được ở trạng thái j. Đó là, chúng ta giả sử rằng
P
{
X
n
+
1
=
k
|
X
n
=
i
,
X
n
-
1
=
i
n
-
1
, ...,
X
0
=
i
0
} =
P
i
,
j
(4.1)
cho tất cả bang i
0
,
i
1
, ...,
i
n
-
1
,
i
,
j và tất cả n
≥
0
.
một quá trình ngẫu nhiên như vậy được biết đến
như là một chuỗi Markov. Phương trình (4.1) có thể được hiểu là nói rằng, đối với một Markov
chuỗi, phân phối điều kiện của bất kỳ nhà nước trong tương lai X
n
+
1
,
đưa ra trạng thái quá khứ
X
0
,
X
1
, ...,
X
n
-
1
và trạng thái hiện tại X
n
,
độc lập với trạng thái quá khứ và
chỉ phụ thuộc vào trạng thái hiện tại. Tức là, với tình trạng hiện tại, quá khứ và
tương lai của quốc gia một chuỗi Markov là độc lập.
Các giá trị P
i
,
j
đại diện cho xác suất rằng quá trình sẽ, khi ở trạng thái i,
tiếp theo làm cho một quá trình chuyển đổi sang trạng thái j. Là xác suất là không âm và quá trình này
phải thực hiện một quá trình chuyển đổi sang một số nhà nước, chúng ta có
P
i
,
j
≥
0
,
_
j
P
i
,
j
=
1
103 104 4 Markov Chains Hãy P biểu thị ma trận xác suất chuyển tiếp một bước 4.1a Xem xét một hệ thống thông tin liên lạc mà truyền các chữ số 0 và 1. Mỗi chữ số truyền phải đi qua nhiều giai đoạn, mỗi trong số đó có một p xác suất mà các chữ số được nhập vào sẽ không bị thay đổi khi nó rời khỏi. Cho X n biểu thị cách nhập chữ số giai đoạn thứ n, sau đó { X n , n ≥ 0 } là một hai nhà nước chuỗi Markov có một quá trình chuyển đổi ma trận xác suất P = p 1 - p 1 - pp Ví dụ 4.1b Giả sử rằng cho dù trời mưa ngày nay phụ thuộc vào trước các điều kiện thời tiết chỉ từ hai ngày qua. Speci fi biệt, giả sử rằng nếu nó đã mưa trong hai ngày qua, sau đó nó sẽ mưa vào ngày mai với xác suất 0 . 7; nếu itrained ngày hôm nay nhưng không phải ngày hôm qua, sau đó itwill mưa vào ngày mai với xác suất 0 . 5; nếu trời mưa ngày hôm qua nhưng không phải hôm nay, sau đó nó sẽ mưa vào ngày mai với xác suất 0 . 4; nếu trời không mưa trong hai ngày qua, sau đó nó sẽ mưa vào ngày mai với xác suất 0 . 2. Nếu chúng ta để cho nhà nước tại thời điểm n phụ thuộc vào việc nó được trời mưa vào ngày n, thì trước đó sẽ không phải là một chuỗi Markov ( tại sao không?). Tuy nhiên, chúng ta có thể biến nó thành một chuỗi Markov bằng cách cho phép các nhà nước vào bất cứ ngày được xác định bởi thời tiết điều kiện trong suốt cả ngày hôm đó và một trong những trước. Ví dụ, chúng ta có thể nói rằng quá trình này là trong trạng thái 0 nếu trời mưa cả ngày hôm nay và ngày hôm qua nhà nước 1 nếu trời mưa ngày hôm nay nhưng không phải ngày hôm qua nhà nước 2 nếu trời mưa ngày hôm qua nhưng không phải hôm nay nhà nước 3 nếu trời mưa không phải và cũng không hôm nay ngày hôm qua The trước sẽ sau đó đại diện cho một chuỗi Markov bốn trạng thái mà quá trình chuyển đổi ma trận xác suất có thể dễ dàng thể hiện được như sau: P = 0 . 700 . 30 0 . 500 . 50 00 . 400 . 6 00 . 200 . 8 4.2. Chapman-Kolmogorov Phương trình 105 4.2. Chapman-Kolmogorov Phương trình n-bước chuyển xác suất P n i , j của chuỗi Markov là định nghĩa là các điều kiện xác suất thống, cho rằng chuỗi hiện đang trong trạng thái i , mà nó sẽ được ở trạng thái j sau khi quá trình chuyển đổi n thêm. Đó là, P n i , j = P { X n + m = j | X m = i } , n ≥ 0 , i , j ≥ 0 Tất nhiên P 1 i , j = P i , j . Các Chapman-Kolmogorov phương trình cung cấp một phương pháp tính toán các xác suất n bước. Những phương trình này là P n + m i , j = ∞ _ k = 0 P n i , k P m k , j (4.2) và có nguồn gốc bằng cách ghi nhận rằng P n i , k P m k , j là xác suất mà các chuỗi, hiện đang trong trạng thái i, sẽ đi đến trạng thái j sau n + m chuyển qua một con đường mà đưa nó vào trạng thái k vào quá trình chuyển đổi thứ n. Do đó, tổng hợp các xác suất trên tất cả các trung bang k mang xác suất mà quá trình này sẽ được ở trạng thái j sau n + m chuyển tiếp. Chính thức, chúng tôi chúng ta để cho P (n) biểu thị ma trận n bước chuyển xác suất P n i , j , sau đó các phương trình Chapman-Kolmogorov khẳng định rằng P (n + m) = P (n) ∙ P (m) , nơi các dấu chấm tượng trưng cho ma trận phép nhân. Do đó, P (2) = P (1 + 1) = P ∙ P = P 2 và, bằng cảm ứng, P (n) = P (n - 1 + 1) = P (n - 1) ∙ P = P n Đó là, các n-bước chuyển đổi ma trận xác suất có thể thu được bằng cách nhân ma trận P của chính nó n lần. 106 4 Markov Chains Ví dụ 4.2a Giả sử, trong Ví dụ 4.1a, thấy trời mưa trên cả hai thứ hai và thứ ba. ? Xác suất mà nó sẽ mưa vào thứ năm là gì Giải pháp: Vì ma trận xác suất chuyển là P = 0 . 700 . 30 0 . 500 . 50 00 . 400 . 6 00 . 200 . 8 hai bước xác suất chuyển ma trận chuỗi ở trong trạng thái 0 vào thứ ba, và bởi vì nó sẽ mưa vào Thurs- ngày nếu chuỗi là một trong hai trạng thái 0 hoặc 1 nhà nước vào ngày hôm đó, xác suất mong muốn là P 2 0 , 0 + P 2 0 , 1 = 0 . 49 + 0 . 12 = 0 . 61 ✷ 4.3. phân loại fi cation của Hoa Nhà nước j được cho là có thể truy cập từ trạng thái i nếu P n i , j > 0 cho một số n ≥ 0 . Lưu ý rằng điều này hàm ý rằng trạng thái j là truy cập từ trạng thái i khi và chỉ khi, bắt đầu từ trạng thái i, có thể là quá trình sẽ bao giờ được ở trạng thái j. Điều này là đúng bởi vì nếu j là không thể truy cập từ i, sau đó P { bao giờ nhập j | bắt đầu vào i } = P _ ∞ _ n = 0 { X n = k } | X 0 = i _ ≤ ∞ _ n = 0 P { X n = k | X 0 = i } = 0 Vì P 0 i , i = P { X 0 = i | X 0 = i } = 1 nó sau đó bất kỳ nhà nước có thể truy cập từ chính nó. Nếu trạng thái j là truy cập từ trạng thái i , và trạng thái i là truy cập từ trạng thái j, thì ta nói rằng các quốc gia i và j giao tiếp. Giao tiếp giữa các quốc gia i và j được thể hiện một cách tượng trưng bởi i ↔ j . 4.3. phân loại fi cation của Hoa 107 Các thông tin liên lạc quan hệ satis fi es ba thuộc tính sau: 1. i ↔ i 2. nếu tôi ↔ j thì j ↔ i 3. nếu tôi ↔ j và j ↔ k sau đó tôi ↔ k tính 1 và 2 sau ngay lập tức từ trong định nghĩa fi de giao tiếp. Để chứng minh 3, giả sử rằng tôi giao tiếp với j, j và giao tiếp với k. Sau đó, có tồn tại số nguyên n và m như vậy mà P n i , j P m j , k > 0 . Đến Chapman-Kolmogorov phương trình, P n + m i , k = _ r P n i , r P m r , k ≥ P n i , j P m j , k > 0 Do đó k nhà nước có thể truy cập từ trạng thái i. Bởi cùng một lý lẽ chúng ta có thể thấy rằng nhà nước tôi có thể truy cập từ trạng thái k , hoàn thành fi cation veri hữu 3. Hai bang mà giao tiếp được cho là trong cùng một lớp. Nó là một dễ hậu quả của tính 1, 2, 3 và rằng bất kỳ hai lớp học của các quốc gia là một trong hai giống hệt nhau hoặc tách rời nhau. Nói cách khác, khái niệm về truyền thông chia không gian trạng thái lên thành một số các lớp riêng biệt. Các chuỗi Markov được cho là tối giản nếu chỉ có một lớp học, đó là, nếu tất cả các nước liên lạc với nhau khác. Ví dụ 4.3a Hãy xem xét các chuỗi Markov gồm ba trạng thái 0 , 1 , 2 , và có ma trận xác suất chuyển P = 1 2 1 2 0 1 2 1 4 1 4 0 1 3 2 3 Nó rất dễ dàng để xác minh rằng chuỗi Markov này là bất khả quy. Ví dụ, nó là có thể đi từ trạng thái 0 đến trạng thái 2 vì 0 → 1 → 2 Đó là, một cách để nhận được từ nhà nước 0 đến trạng thái 2 là để đi từ trạng thái 0 đến trạng thái 1 (với xác suất 1 / 2) và sau đó đi từ trạng thái 1 đến trạng thái 2 (với xác suất 1 / 4). ✷ Ví dụ 4.3b Hãy xem xét một chuỗi Markov gồm bốn trạng thái 0, 1, 2, 3 và có khả năng chuyển đổi ma trận P = 1 2 1 2 00 1 2 1 2 00 1 4 1 4 1 4 1 4 0001 108 4 Markov Chains Các lớp học của chuỗi Markov này là { 0 , 1 } , { 2 } , và { 3 } . Lưu ý rằng trong khi trạng thái 0 (hoặc 1) có thể truy cập từ trạng thái 2, ngược lại là không đúng sự thật. Như nhà nước 3 là hấp thụ nước (tức là, P 3 , 3 = 1) , không một quốc gia khác có thể truy cập từ nó. ✷ Đối với bất kỳ nhà nước tôi, hãy để f biểu thị xác suất đó, bắt đầu từ trạng thái i, quá trình này tôi sẽ bao giờ nhập lại mà nhà nước. Trạng thái i được cho là tái phát nếu f i = 1 , và thoáng qua nếu f i < 1 . Giả sử bây giờ mà quá trình bắt đầu trong trạng thái i và i là tái phát. Sau đó, với xác suất 1, quá trình này cuối cùng sẽ nhập lại trạng thái i. Tuy nhiên, bằng các định nghĩa fi de của một chuỗi Markov, nó sau đó quá trình sẽ được xác suất bắt đầu lại một lần nữa khi nó reenters trạng thái i và, do đó, nhà nước i cuối cùng sẽ được đến thăm một lần thứ hai. Sự lặp lại liên tục của lập luận này dẫn đến kết luận rằng nếu nhà nước i là tái phát sau đó, bắt đầu từ trạng thái i, quá trình sẽ nhập lại trạng thái i một lần nữa và một lần nữa và một lần nữa - trong thực tế, trong fi nitely thường. Mặt khác, giả sử rằng trạng thái i là thoáng qua. Trong trường hợp này, mỗi lần quá trình đi vào trạng thái i sẽ có một xác suất tích cực, cụ thể là, 1 - f i , rằng nó sẽ không bao giờ một lần nữa nhập mà nhà nước. Vì vậy, bắt đầu từ trạng thái i, xác suất mà quá trình này sẽ được ở trạng thái i cho chính xác n thời kỳ tương đương với f n - 1 i (1 - f) i , n ≥ 1 . Nói cách khác, nếu nhà nước i là thoáng qua sau đó, bắt đầu từ trạng thái i, các nu4 j ≥ 0 Tất nhiên P 1 i , j = P i , j . Các phương trình Chapman-Kolmogorov cung cấp một phương pháp tính toán các xác suất n bước. Những phương trình này là P n + m i , j = ∞ _ k = 0 P n i , k P m k , j (4.2) và có nguồn gốc bằng cách ghi nhận rằng P n i , k P m k , j là xác suất mà các chuỗi, hiện đang trong trạng thái i, sẽ đi đến trạng thái j sau n + m chuyển qua một con đường mà đưa nó vào trạng thái k vào quá trình chuyển đổi thứ n. Do đó, tổng hợp các xác suất trên tất cả các trung bang k mang xác suất mà quá trình này sẽ được ở trạng thái j sau n + m chuyển tiếp. Chính thức, chúng tôi chúng ta để cho P (n) biểu thị ma trận n bước chuyển xác suất P n i , j , sau đó các phương trình Chapman-Kolmogorov khẳng định rằng P (n + m) = P (n) ∙ P (m) , nơi các dấu chấm tượng trưng cho ma trận phép nhân. Do đó, P (2) = P (1 + 1) = P ∙ P = P 2 và, bằng cảm ứng, P (n) = P (n - 1 + 1) = P (n - 1) ∙ P = P n Đó là, các n-bước chuyển đổi ma trận xác suất có thể thu được bằng cách nhân ma trận P của chính nó n lần. 106 4 Markov Chains Ví dụ 4.2a Giả sử, trong Ví dụ 4.1a, thấy trời mưa trên cả hai thứ hai và thứ ba. ? Xác suất mà nó sẽ mưa vào thứ năm là gì Giải pháp: Vì ma trận xác suất chuyển là P = 0 . 700 . 30 0 . 500 . 50 00 . 400 . 6 00 . 200 . 8 hai bước xác suất chuyển ma trận chuỗi ở trong trạng thái 0 vào thứ ba, và bởi vì nó sẽ mưa vào Thurs- ngày nếu chuỗi là một trong hai trạng thái 0 hoặc 1 nhà nước vào ngày hôm đó, xác suất mong muốn là P 2 0 , 0 + P 2 0 , 1 = 0 . 49 + 0 . 12 = 0 . 61 ✷ 4.3. phân loại fi cation của Hoa Nhà nước j được cho là có thể truy cập từ trạng thái i nếu P n i , j > 0 cho một số n ≥ 0 . Lưu ý rằng điều này hàm ý rằng trạng thái j là truy cập từ trạng thái i khi và chỉ khi, bắt đầu từ trạng thái i, có thể là quá trình sẽ bao giờ được ở trạng thái j. Điều này là đúng bởi vì nếu j là không thể truy cập từ i, sau đó P { bao giờ nhập j | bắt đầu vào i } = P _ ∞ _ n = 0 { X n = k } | X 0 = i _ ≤ ∞ _ n = 0 P { X n = k | X 0 = i } = 0 Vì P 0 i , i = P { X 0 = i | X 0 = i } = 1 nó sau đó bất kỳ nhà nước có thể truy cập từ chính nó. Nếu trạng thái j là truy cập từ trạng thái i , và trạng thái i là truy cập từ trạng thái j, thì ta nói rằng các quốc gia i và j giao tiếp. Giao tiếp giữa các quốc gia i và j được thể hiện một cách tượng trưng bởi i ↔ j . 4.3. phân loại fi cation của Hoa 107 Các thông tin liên lạc quan hệ satis fi es ba thuộc tính sau: 1. i ↔ i 2. nếu tôi ↔ j thì j ↔ i 3. nếu tôi ↔ j và j ↔ k sau đó tôi ↔ k tính 1 và 2 sau ngay lập tức từ trong định nghĩa fi de giao tiếp. Để chứng minh 3, giả sử rằng tôi giao tiếp với j, j và giao tiếp với k. Sau đó, có tồn tại số nguyên n và m như vậy mà P n i , j P m j , k > 0 . Đến Chapman-Kolmogorov phương trình, P n + m i , k = _ r P n i , r P m r , k ≥ P n i , j P m j , k > 0 Do đó k nhà nước có thể truy cập từ trạng thái i. Bởi cùng một lý lẽ chúng ta có thể thấy rằng nhà nước tôi có thể truy cập từ trạng thái k , hoàn thành fi cation veri hữu 3. Hai bang mà giao tiếp được cho là trong cùng một lớp. Nó là một dễ hậu quả của tính 1, 2, 3 và rằng bất kỳ hai lớp học của các quốc gia là một trong hai giống hệt nhau hoặc tách rời nhau. Nói cách khác, khái niệm về truyền thông chia không gian trạng thái lên thành một số các lớp riêng biệt. Các chuỗi Markov được cho là tối giản nếu chỉ có một lớp học, đó là, nếu tất cả các nước liên lạc với nhau khác. Ví dụ 4.3a Hãy xem xét các chuỗi Markov gồm ba trạng thái 0 , 1 , 2 , và có ma trận xác suất chuyển P = 1 2 1 2 0 1 2 1 4 1 4 0 1 3 2 3 Nó rất dễ dàng để xác minh rằng chuỗi Markov này là bất khả quy. Ví dụ, nó là có thể đi từ trạng thái 0 đến trạng thái 2 vì 0 → 1 → 2 Đó là, một cách để nhận được từ nhà nước 0 đến trạng thái 2 là để đi từ trạng thái 0 đến trạng thái 1 (với xác suất 1 / 2) và sau đó đi từ trạng thái 1 đến trạng thái 2 (với xác suất 1 / 4). ✷ Ví dụ 4.3b Hãy xem xét một chuỗi Markov gồm bốn trạng thái 0, 1, 2, 3 và có khả năng chuyển đổi ma trận P = 1 2 1 2 00 1 2 1 2 00 1 4 1 4 1 4 1 4 0001 108 4 Markov Chains Các lớp học của chuỗi Markov này là { 0 , 1 } , { 2 } , và { 3 } . Lưu ý rằng trong khi trạng thái 0 (hoặc 1) có thể truy cập từ trạng thái 2, ngược lại là không đúng sự thật. Như nhà nước 3 là hấp thụ nước (tức là, P 3 , 3 = 1) , không một quốc gia khác có thể truy cập từ nó. ✷ Đối với bất kỳ nhà nước tôi, hãy để f biểu thị xác suất đó, bắt đầu từ trạng thái i, quá trình này tôi sẽ bao giờ nhập lại mà nhà nước. Trạng thái i được cho là tái phát nếu f i = 1 , và thoáng qua nếu f i < 1 . Giả sử bây giờ mà quá trình bắt đầu trong trạng thái i và i là tái phát. Sau đó, với xác suất 1, quá trình này cuối cùng sẽ nhập lại trạng thái i. Tuy nhiên, bằng các định nghĩa fi de của một chuỗi Markov, nó sau đó quá trình sẽ được xác suất bắt đầu lại một lần nữa khi nó reenters trạng thái i và, do đó, nhà nước i cuối cùng sẽ được đến thăm một lần thứ hai. Sự lặp lại liên tục của lập luận này dẫn đến kết luận rằng nếu nhà nước i là tái phát sau đó, bắt đầu từ trạng thái i, quá trình sẽ nhập lại trạng thái i một lần nữa và một lần nữa và một lần nữa - trong thực tế, trong fi nitely thường. Mặt khác, giả sử rằng trạng thái i là thoáng qua. Trong trường hợp này, mỗi lần quá trình đi vào trạng thái i sẽ có một xác suất tích cực, cụ thể là, 1 - f i , rằng nó sẽ không bao giờ một lần nữa nhập mà nhà nước. Vì vậy, bắt đầu từ trạng thái i, xác suất mà quá trình này sẽ được ở trạng thái i cho chính xác n thời kỳ tương đương với f n - 1 i (1 - f) i , n ≥ 1 . Nói cách khác, nếu nhà nước i là thoáng qua sau đó, bắt đầu từ trạng thái i, các nu4 j ≥ 0 Tất nhiên P 1 i , j = P i , j . Các phương trình Chapman-Kolmogorov cung cấp một phương pháp tính toán các xác suất n bước. Những phương trình này là P n + m i , j = ∞ _ k = 0 P n i , k P m k , j (4.2) và có nguồn gốc bằng cách ghi nhận rằng P n i , k P m k , j là xác suất mà các chuỗi, hiện đang trong trạng thái i, sẽ đi đến trạng thái j sau n + m chuyển qua một con đường mà đưa nó vào trạng thái k vào quá trình chuyển đổi thứ n. Do đó, tổng hợp các xác suất trên tất cả các trung bang k mang xác suất mà quá trình này sẽ được ở trạng thái j sau n + m chuyển tiếp. Chính thức, chúng tôi chúng ta để cho P (n) biểu thị ma trận n bước chuyển xác suất P n i , j , sau đó các phương trình Chapman-Kolmogorov khẳng định rằng P (n + m) = P (n) ∙ P (m) , nơi các dấu chấm tượng trưng cho ma trận phép nhân. Do đó, P (2) = P (1 + 1) = P ∙ P = P 2 và, bằng cảm ứng, P (n) = P (n - 1 + 1) = P (n - 1) ∙ P = P n Đó là, các n-bước chuyển đổi ma trận xác suất có thể thu được bằng cách nhân ma trận P của chính nó n lần. 106 4 Markov Chains Ví dụ 4.2a Giả sử, trong Ví dụ 4.1a, thấy trời mưa trên cả hai thứ hai và thứ ba. ? Xác suất mà nó sẽ mưa vào thứ năm là gì Giải pháp: Vì ma trận xác suất chuyển là P = 0 . 700 . 30 0 . 500 . 50 00 . 400 . 6 00 . 200 . 8 hai bước xác suất chuyển ma trận chuỗi ở trong trạng thái 0 vào thứ ba, và bởi vì nó sẽ mưa vào Thurs- ngày nếu chuỗi là một trong hai trạng thái 0 hoặc 1 nhà nước vào ngày hôm đó, xác suất mong muốn là P 2 0 , 0 + P 2 0 , 1 = 0 . 49 + 0 . 12 = 0 . 61 ✷ 4.3. phân loại fi cation của Hoa Nhà nước j được cho là có thể truy cập từ trạng thái i nếu P n i , j > 0 cho một số n ≥ 0 . Lưu ý rằng điều này hàm ý rằng trạng thái j là truy cập từ trạng thái i khi và chỉ khi, bắt đầu từ trạng thái i, có thể là quá trình sẽ bao giờ được ở trạng thái j. Điều này là đúng bởi vì nếu j là không thể truy cập từ i, sau đó P { bao giờ nhập j | bắt đầu vào i } = P _ ∞ _ n = 0 { X n = k } | X 0 = i _ ≤ ∞ _ n = 0 P { X n = k | X 0 = i } = 0 Vì P 0 i , i = P { X 0 = i | X 0 = i } = 1 nó sau đó bất kỳ nhà nước có thể truy cập từ chính nó. Nếu trạng thái j là truy cập từ trạng thái i , và trạng thái i là truy cập từ trạng thái j, thì ta nói rằng các quốc gia i và j giao tiếp. Giao tiếp giữa các quốc gia i và j được thể hiện một cách tượng trưng bởi i ↔ j . 4.3. phân loại fi cation của Hoa 107 Các thông tin liên lạc quan hệ satis fi es ba thuộc tính sau: 1. i ↔ i 2. nếu tôi ↔ j thì j ↔ i 3. nếu tôi ↔ j và j ↔ k sau đó tôi ↔ k tính 1 và 2 sau ngay lập tức từ trong định nghĩa fi de giao tiếp. Để chứng minh 3, giả sử rằng tôi giao tiếp với j, j và giao tiếp với k. Sau đó, có tồn tại số nguyên n và m như vậy mà P n i , j P m j , k > 0 . Đến Chapman-Kolmogorov phương trình, P n + m i , k = _ r P n i , r P m r , k ≥ P n i , j P m j , k > 0 Do đó k nhà nước có thể truy cập từ trạng thái i. Bởi cùng một lý lẽ chúng ta có thể thấy rằng nhà nước tôi có thể truy cập từ trạng thái k , hoàn thành fi cation veri hữu 3. Hai bang mà giao tiếp được cho là trong cùng một lớp. Nó là một dễ hậu quả của tính 1, 2, 3 và rằng bất kỳ hai lớp học của các quốc gia là một trong hai giống hệt nhau hoặc tách rời nhau. Nói cách khác, khái niệm về truyền thông chia không gian trạng thái lên thành một số các lớp riêng biệt. Các chuỗi Markov được cho là tối giản nếu chỉ có một lớp học, đó là, nếu tất cả các nước liên lạc với nhau khác. Ví dụ 4.3a Hãy xem xét các chuỗi Markov gồm ba trạng thái 0 , 1 , 2 , và có ma trận xác suất chuyển P = 1 2 1 2 0 1 2 1 4 1 4 0 1 3 2 3 Nó rất dễ dàng để xác minh rằng chuỗi Markov này là bất khả quy. Ví dụ, nó là có thể đi từ trạng thái 0 đến trạng thái 2 vì 0 → 1 → 2 Đó là, một cách để nhận được từ nhà nước 0 đến trạng thái 2 là để đi từ trạng thái 0 đến trạng thái 1 (với xác suất 1 / 2) và sau đó đi từ trạng thái 1 đến trạng thái 2 (với xác suất 1 / 4). ✷ Ví dụ 4.3b Hãy xem xét một chuỗi Markov gồm bốn trạng thái 0, 1, 2, 3 và có khả năng chuyển đổi ma trận P = 1 2 1 2 00 1 2 1 2 00 1 4 1 4 1 4 1 4 0001 108 4 Markov Chains Các lớp học của chuỗi Markov này là { 0 , 1 } , { 2 } , và { 3 } . Lưu ý rằng trong khi trạng thái 0 (hoặc 1) có thể truy cập từ trạng thái 2, ngược lại là không đúng sự thật. Như nhà nước 3 là hấp thụ nước (tức là, P 3 , 3 = 1) , không một quốc gia khác có thể truy cập từ nó. ✷ Đối với bất kỳ nhà nước tôi, hãy để f biểu thị xác suất đó, bắt đầu từ trạng thái i, quá trình này tôi sẽ bao giờ nhập lại mà nhà nước. Trạng thái i được cho là tái phát nếu f i = 1 , và thoáng qua nếu f i < 1 . Giả sử bây giờ mà quá trình bắt đầu trong trạng thái i và i là tái phát. Sau đó, với xác suất 1, quá trình này cuối cùng sẽ nhập lại trạng thái i. Tuy nhiên, bằng các định nghĩa fi de của một chuỗi Markov, nó sau đó quá trình sẽ được xác suất bắt đầu lại một lần nữa khi nó reenters trạng thái i và, do đó, nhà nước i cuối cùng sẽ được đến thăm một lần thứ hai. Sự lặp lại liên tục của lập luận này dẫn đến kết luận rằng nếu nhà nước i là tái phát sau đó, bắt đầu từ trạng thái i, quá trình sẽ nhập lại trạng thái i một lần nữa và một lần nữa và một lần nữa - trong thực tế, trong fi nitely thường. Mặt khác, giả sử rằng trạng thái i là thoáng qua. Trong trường hợp này, mỗi lần quá trình đi vào trạng thái i sẽ có một xác suất tích cực, cụ thể là, 1 - f i , rằng nó sẽ không bao giờ một lần nữa nhập mà nhà nước. Vì vậy, bắt đầu từ trạng thái i, xác suất mà quá trình này sẽ được ở trạng thái i cho chính xác n thời kỳ tương đương với f n - 1 i (1 - f) i , n ≥ 1 . Nói cách khác, nếu nhà nước i là thoáng qua sau đó, bắt đầu từ trạng thái i, các nu4
đang được dịch, vui lòng đợi..
