4.6.2How nó Works
Cho một tập dữ liệu huấn luyện, làm thế nào để chúng tôi đi về xác định ranh giới và
các siêu phẳng? Hãy để chúng tôi sử dụng trường hợp của một tập dữ liệu tuyến tính phân chia đơn giản gồm hai thuộc tính, x1 và x2. Chúng ta biết rằng cuối cùng bằng cách sử dụng thích hợp
hạt nhân bất kỳ không gian đặc trưng phức tạp có thể được ánh xạ vào một không gian tuyến tính, vì vậy đây
xây dựng sẽ được áp dụng cho bất kỳ tập hợp dữ liệu chung. Hơn nữa, việc mở rộng các
thuật toán để hơn hai thuộc tính là khái niệm đơn giản.
Có ba nhiệm vụ cần thiết liên quan ở đây: bước nắm tay là fid ranh giới của mỗi lớp. Sau đó, các siêu phẳng tốt nhất, H, là một trong đó tối đa hóa
lợi nhuận hoặc khoảng cách với nhau về ranh giới lớp (xem Hình 4.48). Cả hai
của các bước sử dụng các dữ liệu huấn luyện. Bước fial là để xác định về phía nào
của siêu phẳng này một ví dụ thử nghiệm cho nằm để phân loại nó.
Bước 1: Tìm các ranh giới. Khi chúng tôi kết nối tất cả các điểm trong một lớp học của một
tập hợp dữ liệu để mỗi khác trong lớp đó, đường viền nổi lên bất chấp ranh giới của lớp này. Ranh giới này cũng được biết đến như là vỏ lồi, như thể hiện trong
hình 4.50.
Mỗi lớp sẽ có vỏ lồi riêng của mình và vì các lớp học được (giả định
được) tuyến tính tách, những vỏ không cắt nhau.
Bước 2: Có infiitely nhiều siêu phẳng có sẵn, hai trong số đó được
thể hiện trong hình 4.51. Làm thế nào để chúng ta biết mà siêu phẳng tối đa hóa lợi nhuận? Bằng trực giác, chúng ta biết rằng H0 có một biên độ lớn hơn so với H1, nhưng làm thế nào điều này có thể
được xác định bằng toán học?
đang được dịch, vui lòng đợi..
