Lỗi này là không chính xác không vì lỗi làm tròn số, nhưng nó là rất gần:
0.0025 (nhỏ hơn nhiều so với độ lệch chuẩn của mục tiêu, đó là tự nhiên
. giá trị so sánh)
Khi chúng ta sử dụng cross-validation (mã là rất tương tự với những gì chúng tôi đã sử dụng trước trong
các ví dụ Boston), chúng tôi nhận được một cái gì đó rất khác nhau: 0,78. Hãy nhớ rằng
độ lệch chuẩn của các dữ liệu chỉ 0,6 là. Điều này có nghĩa rằng nếu chúng ta luôn luôn "dự đoán"
các giá trị trung bình của -3.5, chúng tôi có một gốc có nghĩa là lỗi vuông 0,6! Vì vậy, với OLS, trong
đào tạo, lỗi này là không đáng kể. Khi khái quát, nó là rất lớn và các
dự đoán là thực sự có hại: chúng tôi đã có thể làm tốt hơn (về gốc có nghĩa là
lỗi vuông) bằng cách dự đoán các giá trị trung bình mỗi lần!
Mẹo
Đào tạo và báo lỗi tổng quát
Khi số lượng các tính năng lớn hơn số ví dụ, bạn luôn luôn
có được không lỗi đào tạo với OLS, nhưng điều này hiếm khi là một dấu hiệu cho thấy mô hình của bạn sẽ làm
tốt trong điều kiện tổng quát. Trong thực tế, bạn có thể nhận được lỗi zero đào tạo và có một
mô hình hoàn toàn vô dụng
đang được dịch, vui lòng đợi..