Oversampling 14) + (viết tắt là ngẫu nhiên rừngOver-RF). Một thiểu số mới đào tạo thiết lập lấy mẫu (với thay thế) từ lớp thiểu số gốc, | PT | =| N |. Sau đó, ngẫu nhiên rừng được sử dụng để đào tạo một loại sử dụng Pt và N. Số lặp đi lặp lại là 40.15) cân bằng ngẫu nhiên rừng (viết tắt là BRF). Cân bằngNgẫu nhiên rừng là khác nhau từ ngẫu nhiên rừng ở chỗ nó sử dụng cân bằng bootstrap mẫu dữ liệu đào tạo. Nó là khác nhau từ undersampling + ngẫu nhiên rừng, vì sau này preprocesses dữ liệu đào tạo và sau đó học một loại ngẫu nhiên rừng. Ở đây, chúng tôi sử dụng RandomTree trong WEKA để đào tạo máy phân loại yếu, đó là phương pháp học tập cùng loại yếu được sử dụng bởi RandomForest ở WEKA. Số lặp đi lặp lại là 40.Các thiết lập của giỏ hàng đều giống nhau. Trong giỏ hàng, cắt tỉa được sử dụng, và các nút không tinh khiết phải có ít nhất mười ví dụ được chia. Giỏ hàng và Ada là phương pháp đường cơ sở. Tất cả các máy phân loại khác có 40 máy phân loại yếu. Trong Chan, số lượng máy phân loại cũng là 40 kể từ khi mức độ mất cân bằng của bộ dữ liệu trong bảng II là tất cả thấp hơn 40.
đang được dịch, vui lòng đợi..