Người hàng xóm gần nhất (NN) quy tắc [l] - [3] gán một không được phân loại
mẫu để học cùng lớp với gần nhất của nhãn N lưu trữ
mẫu của tập huấn luyện. Các quy tắc rất đơn giản, nhưng mạnh mẽ, và
với một số lượng không giới hạn của mẫu, rủi ro trong việc đưa ra một NN
quyết định là không bao giờ tồi tệ hơn gấp đôi nguy cơ Bayes [l]. Nhưng, như tất cả
các mẫu nhãn của tập huấn luyện phải được tìm kiếm để
phân loại một mẫu thử nghiệm, các phương pháp NN áp đặt lưu trữ lớn và
yêu cầu tính toán.
Các đặc láng giềng gần nhất (CNN) quy tắc [4], [9] giữ lại các
phương pháp tiếp cận cơ bản của các quy tắc NN nhưng chỉ sử dụng một tập hợp con của
tập huấn luyện của mẫu. Tập hợp con này, khi được sử dụng như một lưu trữ
tài liệu tham khảo đặt ra cho các quy tắc quyết định NN, phân loại chính xác tất cả các
mẫu thuộc tập huấn luyện ban đầu. Khi CNN
phương pháp chọn mẫu ngẫu nhiên, nội bộ chứ không phải là
mẫu ranh giới đôi khi giữ lại. Gates [5] đã đề xuất
các sửa đổi giảm NN của thuật toán CNN.
Swonger [6] mô tả một thuật toán ngưng tụ lặp đi lặp lại để chọn một tập hợp con phù hợp của mẫu để sử dụng trong một quy tắc quyết định CNN. Ritter et al. [7] giới thiệu một thuật toán cho một quy tắc quyết định hàng xóm gần nhất chọn lọc. Tomek [8] trình bày hai thay đổi của CNN bằng cách phát triển các thiết lập đặc chỉ sử dụng mẫu gần với ranh giới quyết định. Chidananda Gowda và Krishna [lo] - [121 đã giới thiệu khái niệm chung khu phố gần nhất và một biện pháp tương tự mới được gọi là giá trị khu phố lẫn nhau (MNV). Một thuật toán hai giai đoạn của một sửa đổi
quy tắc CNN, làm cho việc sử dụng của MNV, sẽ được mô tả trong các phần tiếp theo.
đang được dịch, vui lòng đợi..
