Sung. . 2. Phân loại các kịch bản cho các phân phối thống nhất đơn biến Class 2 có thể được phân loại sai hoặc từ chối hoàn toàn tùy thuộc vào các thiết lập của các điều khoản chi phí. C ase 3 BU:. Tách giữa hai phân phối Một là có thể có được các giải pháp chính xác mà không có bất kỳ lỗi và từ chối. Về chi phí là vô dụng trong trường hợp này. III. MUT UAL -INFORMAT ION CƠ SỞ D CL ASSIFIE RS W IT HA RE JE CT OPT ION đến tại tối ưu y + xác định bởi (31). Chúng ta chấp nhận định nghĩa của entropy Shannon với lý do là không có tham số miễn phí được giới thiệu. Một chương trình chuẩn hóa được áp dụng để so sánh tương đối có thể được thực hiện dễ dàng giữa các phân loại. Định nghĩa 6 (Confusion Matrix Augmented [11]): Một ma trận nhầm lẫn mented aug- sẽ bao gồm một cột cho một lớp học từ chối, mà sẽ được thêm vào một sự nhầm lẫn thông thường ma trận: A. Mutual-thông tin dựa Classifiers Định nghĩa 5 (Mutual-thông tin phân loại): Một thông tin phân loại mutual- là phân loại được lấy từ tối đa hóa thông tin lẫn nhau trên tất cả các mẫu: C = C11 C12 • • • c1m c1 (m + 1) C21 C22 • • • C2M c2 (m + 1) • • • cm1 cm2 • • • CMM cm (m + 1) (34) y + = arg max NI (T = t, Y = y) , (31) y nơi T và Y là các biến mục tiêu và quyết định biến đầu ra, t và y là các giá trị của họ, tương ứng. Để đơn giản, chúng ta biểu thị NI (T = t, Y = y) = NI (T, Y) là những thông tin lẫn nhau bình thường trong một hình thức [11]: I (T, Y) nơi Cij đại diện cho số của lớp thứ i được clas- sified như lớp thứ j. Các dữ liệu hàng tương ứng với các lớp học chính xác, và các cột dữ liệu tương ứng với các lớp học dự đoán. Cột cuối cùng đại diện cho một lớp học từ chối. Các mối quan hệ và những hạn chế của một ma trận nhầm lẫn gia tăng là: m + 1 Ci = X Cij, Ci> 0, Cij ≥ 0, i = 1, 2, • • •, m (35) NI (T, Y) = H ( T) (32a) j = 1 nơi H (T) là entropy dựa trên định nghĩa Shannon [37] để biến mục tiêu, m H (T) = - X p (ti) log2 p (ti), (32b) i = 1 và I (T, Y) là thông tin lẫn nhau giữa hai biến của T và Y [38]: nơi Ci là tổng số cho lớp thứ i. Các dữ liệu cho Ci được biết đến trong vấn đề phân loại. Trong tác phẩm này, giả sử rằng các dữ liệu đầu vào cho các loại được biết chính xác về p xác suất trước (ti) và hàm mật độ xác suất có điều kiện p (x | ti), người ta có thể lấy được ma trận phân phối doanh gắn với ma trận nhầm lẫn: Cij m m + 1 p (t, y) pij = p (ti, yj) = R R p (ti) p (x | ti) dx ≈ n = pe (ti , yj), I (T, Y) = XX p (ti, yj) log2 ij, (32C) i = 1, 2, j • •, m, j = 1, 2, • • •, m + 1 i = 1 j = 1 p (ti) p (yj) • (36) trong đó m là tổng số các lớp học trong T. Đối với phân loại nhị phân, chúng ta đặt m = 2. (32), p (t, y) là phân bố chung giữa hai biến, và p (t) và p (y) là các bản phân phối cận biên có thể bắt nguồn từ [ 38]: p (t) = X p (t, y), và p (y) = X p (t, y). (33) nơi Rj được ký hiệu là các khu vực, trong đó mỗi mẫu x được xác định là lớp thứ j, và pe (ti, yj) là mật độ xác suất thực nghiệm cho các ứng dụng mà chỉ có một ma trận nhầm lẫn được đưa ra. Trong những ứng dụng, tổng số mẫu n thường được biết đến. Eq. (36) mô tả mối quan hệ giữa xấp xỉ yt phân phối chung và ma trận nhầm lẫn. Nếu những kiến thức toán học, eq. (31) thể hiện rằng y + là trình phân loại tối ưu về các thông tin lẫn nhau tối đa, hoặc entropy tương đối, giữa các mục tiêu biến T và biến đầu ra quyết định Y. Các giải thích vật lý của entropy tương đối là một dụng cụ đo xác suất tương tự giữa hai biến. Lưu ý rằng định nghĩa hiện tại của NI là không đối xứng với các biến T và Y đối với các hạn bình thường của H (T) (= không đổi, cho p cho trước (t)), nhưng sẽ không tạo sự khác biệt cho về p (ti) và p (x | ti) được biết chính xác, người ta có thể thiết kế một thông tin phân loại lẫn nhau trực tiếp. Nếu không có thông tin ban đầu được biết về p (ti) và p (x | ti), xác suất thực nghiệm mật độ phân bố doanh, pe (ti, yj), có thể được ước tính từ sự nhầm lẫn ma trận [11]. Điều trị này, dựa trên nguyên tắc tần số của một ma trận nhầm lẫn, không phải là toán học khắt khe, nhưng sẽ cung cấp một phương pháp đơn giản để phân loại để áp dụng nguyên tắc entropy cho các ứng dụng rộng rãi hơn.
đang được dịch, vui lòng đợi..
