BẢNG III
DATA IN MẪU AT IONFOR BAY ESIANAND MU T UA L -INFO RM ATI ON CL Assi FIE RSIN BI NA RY CL Assi FIC AT ion Classifier Required Input Output Học Loại On dữ liệu trên Rejection liệu Target p (t1), p (t2 ) E1, E2, Rej1, Rej2, p (x | t1), p (x | t2) Không có rủi ro min (y) Rủi ro, Bayesian Mutual- Thông tin λ11, λ12, λ13 hoặc hoặc R1, R2, R3, λ21, λ22 , λ23 Có min E (y) TR1, TR2, (hoặc TR1 và Tr2) ({λ21 / λ12}, hoặc {λ21, λ13, λ23}) E1, E2, Rej1, Rej2, Không NI, p (t1) , p (t2) hoặc tối đa NI (T, Y) R1, R2, R3, p (x | t1), p (x | t2) Có TR1, TR2, ({λ21 / λ12}, hoặc {λ21, λ13, λ23}) B. So sánh về đơn biến Gaussian phân phối phân phối Gaussian là quan trọng không chỉ trong ý nghĩa lý thuyết. Đến một mức độ lớn, giả định này cũng phù hợp với hướng dẫn quan trọng trong các ứng dụng thực tế. Đối với vấn đề sification clas-, nhiều phát hiện quan trọng có thể được tiết lộ từ một nghiên cứu về phân bố Gaussian. Các ví dụ bằng số sau đây được thiết kế đặc biệt để chứng tỏ sự khác biệt nội tại giữa Bayesian và phân loại lẫn nhau thông tin về phân bố Gaussian. Đối với các tính toán về giá trị NI 's trên các ví dụ sau đây, một bộ công cụ mã nguồn mở [39] được áp dụng để tính toán của các phân loại lẫn nhau thông tin. Ví dụ 1: Hai điểm cross-over. Các dữ liệu cho không từ chối được đưa ra dưới đây: N o từ chối: μ1 = -1, σ1 = 2, p (t1) = 0,5, λ11 = 0, λ12 = 1, μ2 = 1, σ2 = 1, p (t2) = 0.5, λ21 = 1, λ22 = 0 Các điều khoản chi phí được sử dụng để phân loại Bayes, nhưng không cho phân loại lẫn nhau thông tin. Bảng IV liệt kê các kết quả cho cả hai phân loại. Người ta có thể có được kết quả tương tự khi inputing λ13 = 1 - λ23 cho phân loại Bayes. Đây là lý do tại sao một ma trận hai nhân hai phải được sử dụng trong trường hợp không có từ chối. Hai điểm cross-over được hình thành trong các ví dụ này (Hình. 1b). Nếu không có từ chối được chọn, cả hai phân loại sẽ có hai điểm biên. Phân loại Bayes sẽ phân vùng các khu vực phân loại bằng cách xb1 = xc1 = -0,238 và xb2 = xc2 = 3,57. Phân loại lẫn nhau, thông tin mở rộng các khu vực R2 bởi xb1 = -0,674 và xb2 = 4,007 để các lỗi cho Class 2 giảm đi nhiều. Nếu xét bằng không chi phí cho phân loại chính xác và sử dụng eq. (18) với δi = λ21 / λ12, người ta có thể tính toán một tỷ lệ chi phí dưới đây cho một tham số độc lập để phân loại Bayes trong trường hợp không có từ chối: ai nhận một giá trị tỷ lệ chi phí duy nhất, Λ21 = 2,002. Do đó, phân lẫn nhau, thông tin này có tương đương độc đáo của mình cho một phân loại cụ thể Bayesian được tác dụng bởi các điều kiện sau đây với các điều khoản chi phí: λ11 = 0, λ12 = 1.0, λ21 = 2,002, λ22 = 0. Sau khi phân tích tương tự như trên, ai có thể đạt được một sự quan sát phù hợp để tiến hành một nghiên cứu tham số trên σ1 / σ2 trong phân loại nhị phân. Khi hai lớp cũng được cân bằng, đó là, p (t1) = p (t2), cả hai loại phân loại sẽ tạo ra những lỗi lớn hơn kết hợp với các lớp không đúng larger-. Tuy nhiên, phân loại lẫn nhau, thông tin luôn luôn thêm trọng lượng chi phí nhiều hơn vào việc phân loại sai từ một lớp học đúng smaller-. Nói cách khác, phân loại lẫn nhau, thông tin thích để tạo ra một lỗi nhỏ trên một lớp nhỏ hơn-sai so với phân loại Bayes khi sử dụng zero- một hàm chi phí (Bảng IV). Hành vi thực hiện điều này có vẻ gần gũi hơn với trực giác của chúng tôi trong phân loại nhị phân trong điều kiện của một lớp dữ liệu cân bằng. Khi hai lớp khác nhau đáng kể từ chênh lệch liên quan của họ, một lớp học nhỏ hơn-sai nói chung đại diện cho một tín hiệu quan tâm nhúng trong tiếng ồn mà thường có một phương sai lớn hơn. Các thông lệ phổ biến trong các tình huống phân loại như vậy đòi hỏi một khối lượng chi phí lớn hơn về việc phân loại sai từ một lớp học đúng smaller-, và ngược lại từ một lớp lớn hơn-phương sai. Nếu một tùy chọn từ chối được thi hành sau dữ liệu: Từ chối: μ1 = -1, σ1 = 2, p (t1) = 0,5, λ11 = 0, λ12 = 1.2, λ13 = 0,2, μ2 = 1, σ2 = 1, p (t2) = 0,5, λ21 = 1, λ22 = 0, λ23 = 0,6 bốn điểm ranh giới được yêu cầu để xác định các khu vực phân loại như hình 1d. Đối với các điều khoản, một cho chi phí Λ = λ21 21 λ = p (x = xb | t1) p (t1), p (x = x | t) p (t) (50) phân loại Bayes cho thấy một tỷ lệ lỗi thấp và một loại bỏ thấp 12
đang được dịch, vui lòng đợi..