Tham số C cho tối ưu hóa SVM bao nhiêu bạn muốn tránh misclassifying mỗi ví dụ huấn luyện. Đối với giá trị lớn của C, tối ưu hóa sẽ chọn một hyperplane nhỏ hơn lợi nhuận nếu hyperplane rằng không một công việc tốt hơn nhận được tất cả các điểm đào tạo phân loại một cách chính xác. Ngược lại, một giá trị rất nhỏ của C sẽ gây ra trình tối ưu hoá để tìm hyperplane một tách lớn hơn lợi nhuận, ngay cả khi đó hyperplane misclassifies điểm nhiều hơn. Giá trị rất nhỏ của C, bạn sẽ nhận được ví dụ misclassified, thường ngay cả khi dữ liệu đào tạo là tuyến tính phân chia.C là một sự đánh đổi giữa đào tạo lỗi và độ phẳng của các giải pháp. C lớn hơn là ít lỗi đào tạo cuối cùng sẽ. Nhưng nếu bạn tăng C quá nhiều bạn có nguy cơ mất tính tổng quát của loại, bởi vì nó sẽ cố gắng để phù hợp là tốt nhất có thể tất cả các điểm đào tạo (bao gồm cả lỗi bộ dữ liệu của bạn, có thể có). Ngoài ra một C lớn, thường làm tăng thời gian cần thiết cho đào tạo.Nếu C là nhỏ, sau đó loại là phẳng (nghĩa là dẫn xuất của nó được nhỏ - gần bằng không, ít nhất hạt nhân gaussian rbf đây chứng minh lý thuyết). Bạn phải tìm một C mà giữ erro đào tạo nhỏ, nhưng cũng generalizes tốt (tức là, nó không có biến động lớn). Có một số phương pháp để tìm tốt nhất C có thể tự động, nhưng bạn phải ghi nhớ rằng điều này phụ thuộc vào các ứng dụng mà bạn đang quan tâm đến.
đang được dịch, vui lòng đợi..