The C parameter tells the SVM optimization how much you want to avoid  dịch - The C parameter tells the SVM optimization how much you want to avoid  Việt làm thế nào để nói

The C parameter tells the SVM optim

The C parameter tells the SVM optimization how much you want to avoid misclassifying each training example. For large values of C, the optimization will choose a smaller-margin hyperplane if that hyperplane does a better job of getting all the training points classified correctly. Conversely, a very small value of C will cause the optimizer to look for a larger-margin separating hyperplane, even if that hyperplane misclassifies more points. For very tiny values of C, you should get misclassified examples, often even if your training data is linearly separable.


C is a trade-off between training error and the flatness of the solution. The larger C is the less the final training error will be. But if you increase C too much you risk losing the generalization properties of the classifier, because it will try to fit as best as possible all the training points (including the possible errors of your dataset). In addition a large C, usually increases the time needed for training.

If C is small, then the classifier is flat (meaning that its derivatives are small - close to zero, at least for the gaussian rbf kernel this is substantiated theoretically). You have to find a C that keeps the training erro small, but also generalizes well (i.e., it doesn't have large fluctuations). There are several methods to find the best possible C automatically, but you must keep in mind that this depends on the application you are interested in.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Tham số C cho tối ưu hóa SVM bao nhiêu bạn muốn tránh misclassifying mỗi ví dụ huấn luyện. Đối với giá trị lớn của C, tối ưu hóa sẽ chọn một hyperplane nhỏ hơn lợi nhuận nếu hyperplane rằng không một công việc tốt hơn nhận được tất cả các điểm đào tạo phân loại một cách chính xác. Ngược lại, một giá trị rất nhỏ của C sẽ gây ra trình tối ưu hoá để tìm hyperplane một tách lớn hơn lợi nhuận, ngay cả khi đó hyperplane misclassifies điểm nhiều hơn. Giá trị rất nhỏ của C, bạn sẽ nhận được ví dụ misclassified, thường ngay cả khi dữ liệu đào tạo là tuyến tính phân chia.C là một sự đánh đổi giữa đào tạo lỗi và độ phẳng của các giải pháp. C lớn hơn là ít lỗi đào tạo cuối cùng sẽ. Nhưng nếu bạn tăng C quá nhiều bạn có nguy cơ mất tính tổng quát của loại, bởi vì nó sẽ cố gắng để phù hợp là tốt nhất có thể tất cả các điểm đào tạo (bao gồm cả lỗi bộ dữ liệu của bạn, có thể có). Ngoài ra một C lớn, thường làm tăng thời gian cần thiết cho đào tạo.Nếu C là nhỏ, sau đó loại là phẳng (nghĩa là dẫn xuất của nó được nhỏ - gần bằng không, ít nhất hạt nhân gaussian rbf đây chứng minh lý thuyết). Bạn phải tìm một C mà giữ erro đào tạo nhỏ, nhưng cũng generalizes tốt (tức là, nó không có biến động lớn). Có một số phương pháp để tìm tốt nhất C có thể tự động, nhưng bạn phải ghi nhớ rằng điều này phụ thuộc vào các ứng dụng mà bạn đang quan tâm đến.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Các tham số C cho việc tối ưu hóa SVM bao nhiêu bạn muốn tránh phân loại sai mỗi ví dụ đào tạo. Đối với giá trị lớn của C, tối ưu hóa sẽ chọn một siêu phẳng có lợi nhuận nhỏ hơn nếu siêu phẳng mà không một công việc tốt hơn nhận được tất cả các điểm đào tạo phân loại chính xác. Ngược lại, một giá trị rất nhỏ của C sẽ gây ra các ưu để tìm kiếm một lợi nhuận lớn hơn tách siêu phẳng, thậm chí nếu điểm mà misclassifies siêu phẳng hơn. Đối với giá trị rất nhỏ của C, bạn sẽ nhận được ví dụ phân loại sai, thường ngay cả khi dữ liệu huấn luyện của bạn là tuyến tính tách rời. C là một thương mại-off giữa lỗi đào tạo và độ phẳng của giải pháp. C lớn hơn là ít lỗi đào tạo cuối cùng sẽ được. Nhưng nếu bạn tăng C quá nhiều bạn có nguy cơ mất đi những đặc tính khái quát của phân loại, bởi vì nó sẽ cố gắng để phù hợp tốt nhất có thể tất cả các điểm đào tạo (bao gồm cả các lỗi có thể có của bộ dữ liệu của bạn). Ngoài ra một C lớn, thường làm tăng thời gian cần thiết cho đào tạo. Nếu C là nhỏ, sau đó phân loại là phẳng (nghĩa là các dẫn xuất của nó là nhỏ - gần bằng không, ít nhất là cho các hạt nhân RBF gaussian này được chứng minh về mặt lý thuyết). Bạn phải tìm một C mà giữ Erro đào tạo nhỏ, nhưng cũng khái quát tốt (tức là, nó không có biến động lớn). Có một số phương pháp để tìm C tốt nhất có thể tự động, nhưng bạn phải nhớ rằng điều này phụ thuộc vào các ứng dụng mà bạn đang quan tâm.




đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: