In Chapter 1, Getting Started with Python Machine Learning, we tried t dịch - In Chapter 1, Getting Started with Python Machine Learning, we tried t Việt làm thế nào để nói

In Chapter 1, Getting Started with

In Chapter 1, Getting Started with Python Machine Learning, we tried to fit
polynomials of different complexities controlled by the dimensionality parameter,
d, to fit the data. We realized that a two-dimensional polynomial, a straight line, did
not fit the example data very well because the data was not of a linear nature. No
matter how elaborate our fitting procedure would have been, our two-dimensional
model will see everything as a straight line. We say that it is too biased for the data
at hand; it is under-fitting.
We played a bit with the dimensions and found out that the 100-dimensional
polynomial was actually fitting very well into the data on which it was trained (we
did not know about train-test splits at the time). However, we quickly found that it
was fitting too well. We realized that it was over-fitting so badly that with different
samples of the data points, we would have gotten totally different 100-dimensional
polynomials. We say that the model has too high a variance for the given data or
that it is over-fitting.
These are the extremes between which most of our machine learning problems
reside. Ideally, we want to have both low bias and low variance. But, we are in a
bad world and have to trade off between them. If we improve on one, we will likely
get worse on the other.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Trong chương 1, bắt đầu với Python máy học, chúng tôi đã cố gắng để phù hợp vớiđa thức phức tạp khác nhau kiểm soát bởi tham số chiều,d, để phù hợp với dữ liệu. Chúng tôi nhận ra rằng một đa thức hai chiều, một đường thẳng, đã làmkhông phù hợp dữ liệu ví dụ rất tốt bởi vì các dữ liệu không có tính chất tuyến tính. Khôngvấn đề phức tạp như thế nào chúng tôi thủ tục phù hợp đã có, chúng tôi hai chiềuMô hình sẽ thấy tất cả mọi thứ như là một đường thẳng. Chúng tôi nói rằng nó quá thiên vị cho các dữ liệuở bàn tay; nó là dưới phù hợp.Chúng tôi chơi một chút với các kích thước và phát hiện ra rằng chiều 100đa thức là thực sự phù hợp rất tốt vào dữ liệu mà trên đó nó được đào tạo (chúng tôikhông biết gì về đào tạo thử nghiệm chia tách lúc đó). Tuy nhiên, chúng tôi nhanh chóng thấy rằng nólà phù hợp quá tốt. Chúng tôi nhận ra rằng nó quá trang bị cho nên nặng mà khác nhaumẫu của các điểm dữ liệu, chúng tôi sẽ có nhận được hoàn toàn khác nhau chiều 100đa thức. Chúng tôi nói rằng các mô hình có quá cao một phương sai cho dữ liệu nhất định hoặcđó là phù hợp hơn.Đây là những thái cực giữa mà hầu hết máy của chúng tôi học vấn đềcư trú. Lý tưởng nhất, chúng tôi muốn có thiên vị thấp và thấp phương sai. Tuy nhiên, chúng tôi đang trong mộtthế giới xấu và phải thương mại off giữa chúng. Nếu chúng tôi cải thiện trên một, chúng tôi sẽ có khả năngcó được tồi tệ hơn khác.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
In Chapter 1, Getting Started with Python Machine Learning, we tried to fit
polynomials of different complexities controlled by the dimensionality parameter,
d, to fit the data. We realized that a two-dimensional polynomial, a straight line, did
not fit the example data very well because the data was not of a linear nature. No
matter how elaborate our fitting procedure would have been, our two-dimensional
model will see everything as a straight line. We say that it is too biased for the data
at hand; it is under-fitting.
We played a bit with the dimensions and found out that the 100-dimensional
polynomial was actually fitting very well into the data on which it was trained (we
did not know about train-test splits at the time). However, we quickly found that it
was fitting too well. We realized that it was over-fitting so badly that with different
samples of the data points, we would have gotten totally different 100-dimensional
polynomials. We say that the model has too high a variance for the given data or
that it is over-fitting.
These are the extremes between which most of our machine learning problems
reside. Ideally, we want to have both low bias and low variance. But, we are in a
bad world and have to trade off between them. If we improve on one, we will likely
get worse on the other.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: