4.3 thử nghiệm đánh giá Các thí nghiệm được thực hiện trên cơ sở dữ liệu Aurora 2. Các thiết lập thử nghiệm là các tương tự như mô tả trong phần 3.3. Đánh giá của các mô hình được đề xuất cho lồng tiếng kết hợp lần đầu tiên được thực hiện bằng cách sử dụng một mô hình tiêu chuẩn, được đào tạo về sạch dữ liệu. Kết quả được trình bày trong hình 9. Nó có thể được nhìn thấy rằng sự kết hợp của khả năng lồng tiếng cung cấp nhận dạng đáng kể cải tiến độ chính xác lúc SNRs thấp trong mọi điều kiện ồn ào. Nó được quan sát thấy rằng việc kết hợp lồng tiếng-xác suất gây ra tăng thêm vào trong trường hợp của tiếng ồn Babble, đó là do tiếng ồn này là của một nhân vật lồng tiếng. Điều này có thể được cải thiện bằng cách sử dụng một bài phát biểu quan tâm phát hiện tương tự như thảo luận trước đó trong phần 3.3. Tiếp theo, đánh giá đã được thực hiện trên một mô hình có đền bù cho ảnh hưởng của tiếng ồn-những thí nghiệm này được tiến hành nhằm xác định liệu sự kết hợp của lồng tiếng thông tin có thể vẫn còn cung cấp cải tiến (như việc làm cho tiếng ồn bồi thường có hiệu quả sẽ giảm số lượng misalignment của lồng tiếng thông tin giữa các tín hiệu và các mô hình). Đối với điều này, marginalisation dựa trên MFT mô hình được sử dụng. Để có được bồi thường (idealised) tiếng ồn tốt nhất, mô hình này sử dụng mặt nạ oracle, thu được dựa trên kiến thức đầy đủ tiên nghiệm của tiếng ồn. Kết quả thử nghiệm được trình bày trong hình 10. Nó có thể được nhìn thấy rằng sự kết hợp của khả năng lồng tiếng đã không cải thiện hiệu suất tại SNRs cao, có thể do hiệu quả của bồi thường thiệt hại tiếng ồn. Giảm tại cao SNRs trong trường hợp của tiếng ồn Babble và triển lãm là, tương tự như trong các
đang được dịch, vui lòng đợi..
