Ý tưởng cơ bản là chỉ cần tạo ra một vài mẫu nhỏ hơn của dữ liệu giventraining. Mỗi tập con sẽ xây dựng một cây, và cuối cùng là những cây này sẽ tạo ra một cây mới T'.In cách này, chúng ta có thể đơn giản hóa các nhãn lớp. Ví dụ, nếu chúng ta tách datainto mười tập con. Mỗi lần chi phí bộ nhớ có thể được khá thấp. Maybe100 * 50 * số nhãn lớp (có thể chỉ có 10 KB), thì đó là chỉ 50MB
đang được dịch, vui lòng đợi..