First, let us clarify how to evaluate the performance of a set of inpu dịch - First, let us clarify how to evaluate the performance of a set of inpu Việt làm thế nào để nói

First, let us clarify how to evalua

First, let us clarify how to evaluate the performance of a set of input features. In this chapter we use a very conservative form of feature set evaluation in order to avoid overfitting. This is important. Even if feature sets are evaluated by testset cross-validation or leave-one-out cTwo notes about the procedure in Figure 7-1: First, the choice of 70/30 split for training and testing is somewhat arbitrary, but is empirically a good practical ratio according to more detailed experiments. Second, note that Figure 7-1 does not describe how we search for the best feature set of size j in Step 2a. This is the subject of Section 7-3.
To evaluate the performance a feature selection algorithm is more complicated than to evaluate a feature set. This is because in order to evaluate an algorithm, we must first ask the algorithm to find the best feature subset. Second, to give a fair estimate of how well the feature selection algorithm performs, we should try the first step on different datasets. Therefore, the full procedure of evaluating the performance of a feature selection algorithm, which is described in Figure 7-2, has two layers of loops. The inner loop is to use an algorithm to find the best subset of features. The outer loop is to evaluate the performance of the algorithm using different datasets.ross validation, an exhaustive search of possible feature-sets is likely to find a misleadingly well scoring feature-set by chance. To prevent this, we use the cascaded cross-validation procedure in Figure 7-1, which selects from increasingly large sets of features (and thus from increasingly large model classes). The score for the best feature set of a given size is computed by an independent cross-validation from the score for the best size of feature set.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
First, let us clarify how to evaluate the performance of a set of input features. In this chapter we use a very conservative form of feature set evaluation in order to avoid overfitting. This is important. Even if feature sets are evaluated by testset cross-validation or leave-one-out cTwo notes about the procedure in Figure 7-1: First, the choice of 70/30 split for training and testing is somewhat arbitrary, but is empirically a good practical ratio according to more detailed experiments. Second, note that Figure 7-1 does not describe how we search for the best feature set of size j in Step 2a. This is the subject of Section 7-3.Để đánh giá hiệu suất một tính năng lựa chọn thuật toán là phức tạp hơn để đánh giá một bộ tính năng. Điều này là do để đánh giá một thuật toán, chúng tôi đầu tiên phải yêu cầu các thuật toán để tìm tập hợp tính năng tốt nhất. Thứ hai, để cung cấp cho một ước tính công bằng của các thuật toán tính năng lựa chọn thực hiện tốt như thế nào, chúng ta nên thử bước đầu tiên trên datasets khác nhau. Do đó, đầy đủ của các thủ tục đánh giá hiệu suất của một tính năng lựa chọn thuật toán, được mô tả trong hình 7-2, có hai lớp vòng. Vòng lặp bên trong là sử dụng một thuật toán để tìm tập hợp con tốt nhất của tính năng. Vòng ngoài là để đánh giá hiệu suất của các thuật toán sử dụng xác nhận khác nhau datasets.ross, một tìm kiếm đầy đủ của bộ tính năng có thể có khả năng để tìm một thoảng cũng ghi tính năng thiết lập bởi cơ hội. Để ngăn chặn điều này, chúng tôi sử dụng các thủ tục xác nhận đường ghép tầng trong hình 7-1, mà chọn từ bộ ngày càng lớn của tính năng (và vì thế ngày càng lớn mô hình học). Số điểm cho bộ tính năng tốt nhất của một kích thước nhất định được tính bởi một đường xác nhận độc lập từ các điểm kích thước tốt nhất của tính năng thiết lập.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Đầu tiên, chúng ta hãy làm rõ làm thế nào để đánh giá hiệu suất của một tập hợp các tính năng đầu vào. Trong chương này chúng tôi sử dụng một hình thức rất bảo thủ của việc đánh giá tính năng thiết lập để tránh overfitting. Điều này là quan trọng. Ngay cả khi bộ tính năng được đánh giá bởi testset cross-validation hoặc để lại-một-ra cTwo ghi chú về các thủ tục trong Hình 7-1: Đầu tiên, sự lựa chọn của 70/30 chia cho đào tạo và thử nghiệm là một việc khó, nhưng là theo kinh nghiệm tốt tỷ lệ thực tế theo các thí nghiệm chi tiết hơn. Thứ hai, lưu ý rằng hình 7-1 không mô tả cách chúng tôi tìm kiếm các tính năng thiết lập tốt nhất của kích thước j trong Bước 2a. Đây là chủ đề của mục 7-3.
Để đánh giá hiệu quả một tính năng lựa chọn thuật toán phức tạp hơn để đánh giá một bộ tính năng. Điều này là bởi vì để đánh giá một thuật toán, trước tiên chúng ta phải hỏi các thuật toán để tìm tính năng tập hợp con tốt nhất. Thứ hai, để cung cấp cho một ước tính hợp lý của các thuật toán như thế nào lựa chọn tính năng thực hiện, chúng ta nên cố gắng bước đầu tiên trên dữ liệu khác nhau. Do đó, các thủ tục đầy đủ để đánh giá tính hiệu quả của một thuật toán lựa chọn tính năng, được mô tả trong Hình 7-2, có hai lớp của các vòng. Các vòng trong là sử dụng một thuật toán để tìm các tập con tốt nhất các tính năng. Các vòng ngoài là để đánh giá hiệu suất của thuật toán sử dụng xác nhận datasets.ross khác nhau, tìm kiếm toàn diện có thể tính năng bộ là khả năng tìm thấy một cách sai lạc cũng ghi tính năng thiết lập bởi cơ hội. Để ngăn chặn điều này, chúng tôi sử dụng các thủ tục qua xác nhận phân tầng ở Hình 7-1, trong đó lựa chọn từ bộ ngày càng lớn các tính năng (và do đó từ lớp mô hình ngày càng lớn). Điểm số cho tính năng thiết lập tốt nhất của một kích thước nhất định được tính bằng một cross-validation độc lập với tỷ số cho kích thước tốt nhất của tính năng thiết lập.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: