3. Khi P (X) là hằng số cho tất cả các lớp học, chỉ có P (X | Ci) P (Ci) cần phải được tối đa. Nếu
xác suất trước lớp không được biết đến, sau đó nó thường được giả định rằng các lớp học
là đều có khả năng, đó là, P (C1) = P (C2) = ··· = P (Cm), và do đó chúng tôi sẽ
tối đa hóa P ( X | Ci). Nếu không, chúng tôi tối đa hóa P (X | Ci) P (Ci). Lưu ý rằng trước lớp
xác suất có thể được ước tính bằng P (Ci) = | Ci, D | / | D |, nơi | Ci, D | là số
bộ dữ liệu huấn luyện của lớp Ci trong D.
4. Với bộ dữ liệu với nhiều thuộc tính, nó sẽ là vô cùng tính toán
đắt tiền để tính P (X | Ci). Để giảm bớt tính toán trong việc đánh giá P (X | Ci), các
giả định Ive na độc lập đẳng cấp có điều kiện được thực hiện. Điều này giả định rằng
giá trị của thuộc tính này là điều kiện độc lập với nhau, cho lớp
nhãn của bộ (tức là, không có mối quan hệ phụ thuộc giữa các
thuộc tính). Do đó,
P (X | Ci) =
NY k = 1
P (xk | Ci) (8,12)
= P (x1 | Ci) × P (x2 | Ci) × ··· × P (xn | Ci).
Chúng tôi có thể dễ dàng ước tính xác suất P (x1 | Ci), P (x2 | Ci), ..., P (xn | Ci) từ các
bộ dữ liệu huấn luyện. Nhớ lại rằng đây xk đề cập đến giá trị của thuộc tính Ak cho tuple X. Ví
. Từng thuộc tính, chúng ta nhìn xem các thuộc tính là hạng mục hoặc liên tục có giá trị
Ví dụ, để tính P (X | Ci), chúng ta xem xét những điều sau đây:
đang được dịch, vui lòng đợi..