4.6.2How it WorksGiven a training data set, how do we go about determi dịch - 4.6.2How it WorksGiven a training data set, how do we go about determi Việt làm thế nào để nói

4.6.2How it WorksGiven a training d

4.6.2How it Works
Given a training data set, how do we go about determining the boundary and
the hyperplane? Let us use the case of a simple linearly separable dataset consisting of two attributes, x1 and x2. We know that ultimately by using proper
kernels any complex feature space can be mapped into a linear space, so this
formulation will apply to any general data set. Furthermore, extending the
algorithm to more than two attributes is conceptually straightforward.
There are three essential tasks involved here: the fist step is to fid the boundary of each class. Then the best hyperplane, H, is the one that maximizes the
margin or the distance to each of the class boundaries (see Figure 4.48). Both
of these steps use the training data. The fial step is to determine on which side
of this hyperplane a given test example lies in order to classify it.
Step 1: Finding the boundary. When we connect every point in one class of a
data set to every other in that class, the outline that emerges defies the boundary of this class. This boundary is also known as the convex hull, as shown in
Figure 4.50.
Each class will have its own convex hull and because the classes are (assumed
to be) linearly separable, these hulls do not intersect each other.
Step 2: There are infiitely many available hyperplanes, two of which are
shown in Figure 4.51. How do we know which hyperplane maximizes the margin? Intuitively we know that H0 has a larger margin than H1, but how can this
be determined mathematically?
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
4.6.2How nó hoạt độngCho một tập hợp dữ liệu đào tạo, làm thế nào chúng ta đi về việc xác định ranh giới vàhyperplane? Hãy để chúng tôi có thể sử dụng trường hợp của một tập dữ liệu phân chia tuyến tính đơn giản bao gồm hai thuộc tính, x1 và x2. Chúng ta biết rằng cuối cùng bằng cách sử dụng thích hợphạt nhân bất kỳ không gian các tính năng phức tạp có thể được ánh xạ vào một không gian tuyến tính, vì vậy nàyxây dựng sẽ áp dụng cho bất kỳ thiết lập dữ liệu nói chung. Hơn nữa, mở rộng cácCác thuật toán cho hơn hai thuộc tính là khái niệm đơn giản.Có những ba tác vụ chủ yếu liên quan ở đây: các bước nắm tay là fid ranh giới của mỗi lớp. Sau đó hyperplane tốt nhất, H, là một trong đó tối đa hóa cáclợi nhuận hoặc khoảng cách đến từng lớp ranh giới (xem hình 4,48). Cả haiCác bước sử dụng dữ liệu đào tạo. Bước fial là xác định bên đócủa hyperplane này ví dụ được đưa ra thử nghiệm nằm để phân loại nó.Bước 1: Tìm ranh giới. Khi chúng tôi kết nối mỗi điểm trong một lớp học của mộtdữ liệu các thiết lập để tất cả các khác trong lớp, các đường viền nổi lên defies ranh giới của lớp học này. Ranh giới này còn được gọi là lồi, như được hiển thị trongCon số 4,50.Mỗi lớp sẽ có của riêng của nó lồi và vì các lớp học (giả địnhđể) linearly tách vỏ những không giao nhau lẫn nhau.Bước 2: Không có infiitely nhiều hyperplanes có sẵn, hai trong số đó làHiển thị trong hình 4,51. Làm thế nào chúng ta có biết hyperplane mà tối đa hoá lợi nhuận? Bằng trực giác, chúng ta biết rằng H0 có một lợi nhuận lớn hơn H1, nhưng làm thế nào có thể điều nàyđược xác định về mặt toán học?
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
4.6.2How nó Works
Cho một tập dữ liệu huấn luyện, làm thế nào để chúng tôi đi về xác định ranh giới và
các siêu phẳng? Hãy để chúng tôi sử dụng trường hợp của một tập dữ liệu tuyến tính phân chia đơn giản gồm hai thuộc tính, x1 và x2. Chúng ta biết rằng cuối cùng bằng cách sử dụng thích hợp
hạt nhân bất kỳ không gian đặc trưng phức tạp có thể được ánh xạ vào một không gian tuyến tính, vì vậy đây
xây dựng sẽ được áp dụng cho bất kỳ tập hợp dữ liệu chung. Hơn nữa, việc mở rộng các
thuật toán để hơn hai thuộc tính là khái niệm đơn giản.
Có ba nhiệm vụ cần thiết liên quan ở đây: bước nắm tay là fid ranh giới của mỗi lớp. Sau đó, các siêu phẳng tốt nhất, H, là một trong đó tối đa hóa
lợi nhuận hoặc khoảng cách với nhau về ranh giới lớp (xem Hình 4.48). Cả hai
của các bước sử dụng các dữ liệu huấn luyện. Bước fial là để xác định về phía nào
của siêu phẳng này một ví dụ thử nghiệm cho nằm để phân loại nó.
Bước 1: Tìm các ranh giới. Khi chúng tôi kết nối tất cả các điểm trong một lớp học của một
tập hợp dữ liệu để mỗi khác trong lớp đó, đường viền nổi lên bất chấp ranh giới của lớp này. Ranh giới này cũng được biết đến như là vỏ lồi, như thể hiện trong
hình 4.50.
Mỗi lớp sẽ có vỏ lồi riêng của mình và vì các lớp học được (giả định
được) tuyến tính tách, những vỏ không cắt nhau.
Bước 2: Có infiitely nhiều siêu phẳng có sẵn, hai trong số đó được
thể hiện trong hình 4.51. Làm thế nào để chúng ta biết mà siêu phẳng tối đa hóa lợi nhuận? Bằng trực giác, chúng ta biết rằng H0 có một biên độ lớn hơn so với H1, nhưng làm thế nào điều này có thể
được xác định bằng toán học?
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: