4.6.2How it WorksGiven a training data set, how do we go about determi dịch - 4.6.2How it WorksGiven a training data set, how do we go about determi Việt làm thế nào để nói

4.6.2How it WorksGiven a training d

4.6.2How it Works
Given a training data set, how do we go about determining the boundary and
the hyperplane? Let us use the case of a simple linearly separable dataset consisting of two attributes, x1 and x2. We know that ultimately by using proper
kernels any complex feature space can be mapped into a linear space, so this
formulation will apply to any general data set. Furthermore, extending the
algorithm to more than two attributes is conceptually straightforward.
There are three essential tasks involved here: the fist step is to fid the boundary of each class. Then the best hyperplane, H, is the one that maximizes the
margin or the distance to each of the class boundaries (see Figure 4.48). Both
of these steps use the training data. The fial step is to determine on which side
of this hyperplane a given test example lies in order to classify it.
Step 1: Finding the boundary. When we connect every point in one class of a
data set to every other in that class, the outline that emerges defies the boundary of this class. This boundary is also known as the convex hull, as shown in
Figure 4.50.
Each class will have its own convex hull and because the classes are (assumed
to be) linearly separable, these hulls do not intersect each other.
Step 2: There are infiitely many available hyperplanes, two of which are
shown in Figure 4.51. How do we know which hyperplane maximizes the margin? Intuitively we know that H0 has a larger margin than H1, but how can this
be determined mathematically?
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
4.6.2How it WorksGiven a training data set, how do we go about determining the boundary andthe hyperplane? Let us use the case of a simple linearly separable dataset consisting of two attributes, x1 and x2. We know that ultimately by using properkernels any complex feature space can be mapped into a linear space, so thisformulation will apply to any general data set. Furthermore, extending thealgorithm to more than two attributes is conceptually straightforward.There are three essential tasks involved here: the fist step is to fid the boundary of each class. Then the best hyperplane, H, is the one that maximizes themargin or the distance to each of the class boundaries (see Figure 4.48). Bothof these steps use the training data. The fial step is to determine on which sideof this hyperplane a given test example lies in order to classify it.Step 1: Finding the boundary. When we connect every point in one class of adata set to every other in that class, the outline that emerges defies the boundary of this class. This boundary is also known as the convex hull, as shown inFigure 4.50.Each class will have its own convex hull and because the classes are (assumedto be) linearly separable, these hulls do not intersect each other.Step 2: There are infiitely many available hyperplanes, two of which areshown in Figure 4.51. How do we know which hyperplane maximizes the margin? Intuitively we know that H0 has a larger margin than H1, but how can thisbe determined mathematically?
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
4.6.2How nó Works
Cho một tập dữ liệu huấn luyện, làm thế nào để chúng tôi đi về xác định ranh giới và
các siêu phẳng? Hãy để chúng tôi sử dụng trường hợp của một tập dữ liệu tuyến tính phân chia đơn giản gồm hai thuộc tính, x1 và x2. Chúng ta biết rằng cuối cùng bằng cách sử dụng thích hợp
hạt nhân bất kỳ không gian đặc trưng phức tạp có thể được ánh xạ vào một không gian tuyến tính, vì vậy đây
xây dựng sẽ được áp dụng cho bất kỳ tập hợp dữ liệu chung. Hơn nữa, việc mở rộng các
thuật toán để hơn hai thuộc tính là khái niệm đơn giản.
Có ba nhiệm vụ cần thiết liên quan ở đây: bước nắm tay là fid ranh giới của mỗi lớp. Sau đó, các siêu phẳng tốt nhất, H, là một trong đó tối đa hóa
lợi nhuận hoặc khoảng cách với nhau về ranh giới lớp (xem Hình 4.48). Cả hai
của các bước sử dụng các dữ liệu huấn luyện. Bước fial là để xác định về phía nào
của siêu phẳng này một ví dụ thử nghiệm cho nằm để phân loại nó.
Bước 1: Tìm các ranh giới. Khi chúng tôi kết nối tất cả các điểm trong một lớp học của một
tập hợp dữ liệu để mỗi khác trong lớp đó, đường viền nổi lên bất chấp ranh giới của lớp này. Ranh giới này cũng được biết đến như là vỏ lồi, như thể hiện trong
hình 4.50.
Mỗi lớp sẽ có vỏ lồi riêng của mình và vì các lớp học được (giả định
được) tuyến tính tách, những vỏ không cắt nhau.
Bước 2: Có infiitely nhiều siêu phẳng có sẵn, hai trong số đó được
thể hiện trong hình 4.51. Làm thế nào để chúng ta biết mà siêu phẳng tối đa hóa lợi nhuận? Bằng trực giác, chúng ta biết rằng H0 có một biên độ lớn hơn so với H1, nhưng làm thế nào điều này có thể
được xác định bằng toán học?
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: