Con người tìm hiểu rất nhanh chóng xác định các đối tượng phức tạp và các biến thể của họ. Chúng tôi thường nhận ra một vấn đề không có "A" những gì font, kết cấu hoặc nền, ví dụ, hoặc bộ mặt của một đồng nghiệp ngay cả khi cô đặt trên một hat hay thay đổi kiểu tóc của cô. Chúng tôi cũng có thể xác định một đối tượng khi chỉ là một phần là có thể nhìn thấy, chẳng hạn như góc của một giường hoặc bản lề của một cánh cửa. Nhưng làm thế nào? Có kỹ thuật đơn giản mà người sử dụng trên các nhiệm vụ đa dạng? Và có thể các kỹ thuật được computationally nhân rộng để cải thiện tầm nhìn máy tính, Máy học hoặc robot hiệu suất?Nhà nghiên cứu tại Georgia Tech phát hiện ra rằng con người có thể phân loại dữ liệu bằng cách sử dụng ít hơn 1 phần trăm của các thông tin ban đầu, và xác nhận một thuật toán để giải thích học tập của con người - một phương pháp mà cũng có thể được sử dụng cho máy học, dữ liệu phân tích và máy tính tầm nhìn."Làm thế nào chúng tôi làm cho cảm giác rất nhiều dữ liệu xung quanh chúng ta, của rất nhiều loại khác nhau, vì vậy một cách nhanh chóng và đủ?", ông triệu Yến Quyên Vempala, phân biệt giáo sư khoa học máy tính tại viện công nghệ Georgia và một trong bốn nhà nghiên cứu về dự án. "Ở mức cơ bản, làm thế nào để con người bắt đầu để làm điều đó? Nó là một vấn đề tính toán."Các nhà nghiên cứu Rosa Arriaga, Maya Cakmak, David Rutter và Vempala tại Đại học Georgia Tech, máy tính đã nghiên cứu các hiệu suất của con người trong bài kiểm tra "ngẫu nhiên chiếu" để hiểu tốt như thế nào con người tìm hiểu một đối tượng. Họ trình bày các đối tượng thử nghiệm với hình ảnh ban đầu, trừu tượng và sau đó yêu cầu cho dù họ có thể xác định chính xác rằng cùng một hình ảnh khi ngẫu nhiên Hiển thị chỉ là một phần nhỏ của nó."Chúng tôi đưa ra giả thuyết rằng chiếu ngẫu nhiên có thể được một cách con người tìm hiểu," Arriaga, một nhà khoa học cấp cao nghiên cứu và phát triển của nhà tâm lý học, giải thích. "Câu chuyện ngắn là, dự đoán là đúng. Chỉ 0,15% của tất cả dữ liệu là đủ cho con người."Tiếp theo, các nhà nghiên cứu thử nghiệm một giải thuật tính toán để cho phép máy (rất đơn giản mạng nơ-ron) để hoàn thành các bài kiểm tra cùng một. Máy thực hiện cũng như con người, mà cung cấp một sự hiểu biết mới về cách thức con người tìm hiểu. "Chúng tôi tìm thấy bằng chứng cho thấy, trong thực tế, con người và mạng nơ-ron cư xử rất tương tự như vậy," Arriaga nói.Các nhà nghiên cứu muốn đưa ra một định nghĩa toán học về những gì kích thích tiêu biểu và không điển hình trông giống như, và từ đó, dự đoán dữ liệu mà sẽ khó khăn nhất cho con người và máy tính để tìm hiểu. Con người và máy thực hiện tương tự, chứng minh rằng thực sự một trong những có thể dự đoán dữ liệu sẽ khó khăn nhất để tìm hiểu theo thời gian.Kết quả đã được công bố gần đây trên tạp chí Neural Computation (MIT press). Nó được cho là nghiên cứu đầu tiên của "ngẫu nhiên chiếu," các thành phần cốt lõi của lý thuyết các nhà nghiên cứu, với con người.Để kiểm tra lý thuyết của, các nhà nghiên cứu tạo ra các gia đình ba hình ảnh trừu tượng tại 150 x 150 điểm ảnh, sau đó rất nhỏ '' ngẫu nhiên phác thảo"của những hình ảnh. Đối tượng thử nghiệm đã hiển thị toàn bộ ảnh trong 10 giây, sau đó ngẫu nhiên Hiển thị các phác thảo 16 của mỗi. Sử dụng hình ảnh trừu tượng đảm bảo rằng không phải con người máy, cũng không có bất kỳ kiến thức sẵn có của các đối tượng."We were surprised by how close the performance was between extremely simple neural networks and humans," Vempala said. "The design of neural networks was inspired by how we think humans learn, but it's a weak inspiration. To find that it matches human performance is quite a surprise.""This fascinating paper introduces a localized random projection that compresses images while still making it possible for humans and machines to distinguish broad categories," said Sanjoy Dasgupta, professor of computer science and engineering at the University of California San Diego and an expert on machine learning and random projection. "It is a creative combination of insights from geometry, neural computation, and machine learning."Although researchers cannot definitively claim that the human brain actually engages in random projection, the results support the notion that random projection is a plausible explanation, the authors conclude. In addition, it suggests a very useful technique for machine learning: large data is a formidable challenge today, and random projection is one way to make data manageable without losing essential content, at least for basic tasks such as categorization and decision making.The algorithmic theory of learning based on random projection already has been cited more than 300 times and has become a commonly used technique in machine learning to handle large data of diverse types.
đang được dịch, vui lòng đợi..
