Zhang et. al. [69] trình bày một quyết định ngẫu nhiên Tree (RDT) dựa trên bộ quần áo đồng và chứng minh rằng
sự phức tạp đào tạo độc lập với số lượng nhãn lớp.
RDT xây dựng một số cây quyết định ngẫu nhiên (tức là chọn một tính năng còn lại ngẫu nhiên tại mỗi node) và ngừng phát triển khi nó đi qua một số ngưỡng xác định trước. Phân tích nguy cơ lý thuyết của RDT cho thấy các giới hạn trên của rủi ro là ổn định và giảm giảm ràng buộc với sự gia tăng của số cây [69].
Quan trọng hơn, tăng số lượng cây trong RDT đảm bảo cải thiện hiệu suất với một chút
phức tạp tăng lên, mặc dù phức tạp tăng lên như vậy là tốt hơn so với hầu hết các phương pháp khác. Điều này
ý tưởng của RDT có thể được sử dụng với cả LP và BR và trong cả hai trường hợp phức tạp tính toán là miễn phí của nhiều nhãn. Tài sản này làm cho nó tốt hơn so với các mô hình phân cấp dựa trên thuật toán
HOMER [53] (xem phần 4), cả về hiệu suất và độ phức tạp.
đang được dịch, vui lòng đợi..