Humans learn to very quickly identify complex objects and variations o dịch - Humans learn to very quickly identify complex objects and variations o Việt làm thế nào để nói

Humans learn to very quickly identi

Humans learn to very quickly identify complex objects and variations of them. We generally recognize an "A" no matter what the font, texture or background, for example, or the face of a coworker even if she puts on a hat or changes her hairstyle. We also can identify an object when just a portion is visible, such as the corner of a bed or the hinge of a door. But how? Are there simple techniques that humans use across diverse tasks? And can such techniques be computationally replicated to improve computer vision, machine learning or robotic performance?
Researchers at Georgia Tech discovered that humans can categorize data using less than 1 percent of the original information, and validated an algorithm to explain human learning -- a method that also can be used for machine learning, data analysis and computer vision.
"How do we make sense of so much data around us, of so many different types, so quickly and robustly?" said Santosh Vempala, Distinguished Professor of Computer Science at the Georgia Institute of Technology and one of four researchers on the project. "At a fundamental level, how do humans begin to do that? It's a computational problem."
Researchers Rosa Arriaga, Maya Cakmak, David Rutter, and Vempala at Georgia Tech's College of Computing studied human performance in "random projection" tests to understand how well humans learn an object. They presented test subjects with original, abstract images and then asked whether they could correctly identify that same image when randomly shown just a small portion of it.
"We hypothesized that random projection could be one way humans learn," Arriaga, a senior research scientist and developmental psychologist, explains. "The short story is, the prediction was right. Just 0.15 percent of the total data is enough for humans."
Next, researchers tested a computational algorithm to allow machines (very simple neural networks) to complete the same tests. Machines performed as well as humans, which provides a new understanding of how humans learn. "We found evidence that, in fact, the human and the neural network behave very similarly," Arriaga said.
The researchers wanted to come up with a mathematical definition of what typical and atypical stimuli look like and, from that, predict which data would hardest for the human and the machine to learn. Humans and machines performed equally, demonstrating that indeed one can predict which data will be hardest to learn over time.
Results were recently published in the journal Neural Computation (MIT press). It is believed to be the first study of "random projection," the core component of the researchers' theory, with human subjects.
To test their theory, researchers created three families of abstract images at 150 x 150 pixels, then very small ``random sketches" of those images. Test subjects were shown the whole image for 10 seconds, then randomly shown 16 sketches of each. Using abstract images ensured that neither humans nor machines had any prior knowledge of what the objects were.
"We were surprised by how close the performance was between extremely simple neural networks and humans," Vempala said. "The design of neural networks was inspired by how we think humans learn, but it's a weak inspiration. To find that it matches human performance is quite a surprise."
"This fascinating paper introduces a localized random projection that compresses images while still making it possible for humans and machines to distinguish broad categories," said Sanjoy Dasgupta, professor of computer science and engineering at the University of California San Diego and an expert on machine learning and random projection. "It is a creative combination of insights from geometry, neural computation, and machine learning."
Although researchers cannot definitively claim that the human brain actually engages in random projection, the results support the notion that random projection is a plausible explanation, the authors conclude. In addition, it suggests a very useful technique for machine learning: large data is a formidable challenge today, and random projection is one way to make data manageable without losing essential content, at least for basic tasks such as categorization and decision making.
The algorithmic theory of learning based on random projection already has been cited more than 300 times and has become a commonly used technique in machine learning to handle large data of diverse types.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Con người tìm hiểu rất nhanh chóng xác định các đối tượng phức tạp và các biến thể của họ. Chúng tôi thường nhận ra một vấn đề không có "A" những gì font, kết cấu hoặc nền, ví dụ, hoặc bộ mặt của một đồng nghiệp ngay cả khi cô đặt trên một hat hay thay đổi kiểu tóc của cô. Chúng tôi cũng có thể xác định một đối tượng khi chỉ là một phần là có thể nhìn thấy, chẳng hạn như góc của một giường hoặc bản lề của một cánh cửa. Nhưng làm thế nào? Có kỹ thuật đơn giản mà người sử dụng trên các nhiệm vụ đa dạng? Và có thể các kỹ thuật được computationally nhân rộng để cải thiện tầm nhìn máy tính, Máy học hoặc robot hiệu suất?Nhà nghiên cứu tại Georgia Tech phát hiện ra rằng con người có thể phân loại dữ liệu bằng cách sử dụng ít hơn 1 phần trăm của các thông tin ban đầu, và xác nhận một thuật toán để giải thích học tập của con người - một phương pháp mà cũng có thể được sử dụng cho máy học, dữ liệu phân tích và máy tính tầm nhìn."Làm thế nào chúng tôi làm cho cảm giác rất nhiều dữ liệu xung quanh chúng ta, của rất nhiều loại khác nhau, vì vậy một cách nhanh chóng và đủ?", ông triệu Yến Quyên Vempala, phân biệt giáo sư khoa học máy tính tại viện công nghệ Georgia và một trong bốn nhà nghiên cứu về dự án. "Ở mức cơ bản, làm thế nào để con người bắt đầu để làm điều đó? Nó là một vấn đề tính toán."Các nhà nghiên cứu Rosa Arriaga, Maya Cakmak, David Rutter và Vempala tại Đại học Georgia Tech, máy tính đã nghiên cứu các hiệu suất của con người trong bài kiểm tra "ngẫu nhiên chiếu" để hiểu tốt như thế nào con người tìm hiểu một đối tượng. Họ trình bày các đối tượng thử nghiệm với hình ảnh ban đầu, trừu tượng và sau đó yêu cầu cho dù họ có thể xác định chính xác rằng cùng một hình ảnh khi ngẫu nhiên Hiển thị chỉ là một phần nhỏ của nó."Chúng tôi đưa ra giả thuyết rằng chiếu ngẫu nhiên có thể được một cách con người tìm hiểu," Arriaga, một nhà khoa học cấp cao nghiên cứu và phát triển của nhà tâm lý học, giải thích. "Câu chuyện ngắn là, dự đoán là đúng. Chỉ 0,15% của tất cả dữ liệu là đủ cho con người."Tiếp theo, các nhà nghiên cứu thử nghiệm một giải thuật tính toán để cho phép máy (rất đơn giản mạng nơ-ron) để hoàn thành các bài kiểm tra cùng một. Máy thực hiện cũng như con người, mà cung cấp một sự hiểu biết mới về cách thức con người tìm hiểu. "Chúng tôi tìm thấy bằng chứng cho thấy, trong thực tế, con người và mạng nơ-ron cư xử rất tương tự như vậy," Arriaga nói.Các nhà nghiên cứu muốn đưa ra một định nghĩa toán học về những gì kích thích tiêu biểu và không điển hình trông giống như, và từ đó, dự đoán dữ liệu mà sẽ khó khăn nhất cho con người và máy tính để tìm hiểu. Con người và máy thực hiện tương tự, chứng minh rằng thực sự một trong những có thể dự đoán dữ liệu sẽ khó khăn nhất để tìm hiểu theo thời gian.Kết quả đã được công bố gần đây trên tạp chí Neural Computation (MIT press). Nó được cho là nghiên cứu đầu tiên của "ngẫu nhiên chiếu," các thành phần cốt lõi của lý thuyết các nhà nghiên cứu, với con người.Để kiểm tra lý thuyết của, các nhà nghiên cứu tạo ra các gia đình ba hình ảnh trừu tượng tại 150 x 150 điểm ảnh, sau đó rất nhỏ '' ngẫu nhiên phác thảo"của những hình ảnh. Đối tượng thử nghiệm đã hiển thị toàn bộ ảnh trong 10 giây, sau đó ngẫu nhiên Hiển thị các phác thảo 16 của mỗi. Sử dụng hình ảnh trừu tượng đảm bảo rằng không phải con người máy, cũng không có bất kỳ kiến thức sẵn có của các đối tượng."Chúng tôi đã rất ngạc nhiên bởi cách giữa hiệu suất là giữa mạng nơron cực kỳ đơn giản và con người," Vempala nói. "Thiết kế của mạng nơ-ron cảm hứng của làm thế nào chúng ta nghĩ rằng con người tìm hiểu, nhưng nó là một nguồn cảm hứng yếu. Để tìm thấy nó phù hợp với con người hiệu suất là khá bất ngờ.""Giấy hấp dẫn này giới thiệu một chiếu ngẫu nhiên bản địa hoá nén hình ảnh trong khi vẫn làm cho nó có thể cho con người và máy để phân biệt loại rộng," nói Sanjoy Dasgupta, giáo sư khoa học máy tính và kỹ thuật tại Đại học California San Diego và một chuyên gia về máy học và ngẫu nhiên chiếu. "Đó là một sự kết hợp sáng tạo của những hiểu biết từ hình học, tính toán nơ-ron và máy học."Mặc dù các nhà nghiên cứu không dứt khoát tuyên bố rằng bộ não con người thực sự tham gia trong ngẫu nhiên chiếu, các kết quả hỗ trợ khái niệm rằng chiếu ngẫu nhiên là một lời giải thích chính đáng, các tác giả kết luận. Ngoài ra, nó cho thấy một kỹ thuật rất hữu ích cho máy học: dữ liệu lớn là một thách thức ghê gớm vào ngày hôm qua, và chiếu ngẫu nhiên là một cách để làm cho dữ liệu quản lý mà không mất nội dung cần thiết, tối thiểu cho các nhiệm vụ cơ bản như phân loại và ra quyết định.Lý thuyết thuật toán học dựa trên ngẫu nhiên chiếu đã đã được trích dẫn nhiều hơn 300 lần và đã trở thành một kỹ thuật thường được sử dụng trong máy học tập để xử lý các dữ liệu lớn của loại đa dạng.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Con người học rất nhanh chóng xác định đối tượng phức tạp và các biến thể của chúng. Chúng tôi thường nhận ra một "A" không có vấn đề gì các font, hoặc kết cấu nền, ví dụ, hoặc khuôn mặt của một đồng nghiệp ngay cả khi cô ấy đặt trên một chiếc mũ hoặc thay đổi kiểu tóc của mình. Chúng tôi cũng có thể xác định một đối tượng khi chỉ là một phần có thể nhìn thấy, chẳng hạn như các góc của một chiếc giường hoặc bản lề của cánh cửa. Nhưng bằng cách nào? Có kỹ thuật đơn giản mà con người sử dụng trên toàn nhiệm vụ đa dạng? ? Và có thể các kỹ thuật đó được tính toán nhân rộng để cải thiện thị lực máy tính, máy tính học tập, thực hiện robot
Các nhà nghiên cứu tại Viện công nghệ Georgia đã phát hiện ra rằng con người có thể phân loại dữ liệu sử dụng ít hơn 1 phần trăm của các thông tin ban đầu, và xác nhận một thuật toán để giải thích cho việc học tập của con người - một phương pháp mà cũng có thể được sử dụng cho máy tính học tập, phân tích dữ liệu và máy tính tầm nhìn.
"Làm sao chúng ta có ý nghĩa của dữ liệu rất nhiều xung quanh chúng ta, của rất nhiều loại khác nhau, vì vậy một cách nhanh chóng và mạnh mẽ?" nói Santosh Vempala, giáo sư khoa học máy tính tại Viện Công nghệ Georgia và là một trong bốn nhà nghiên cứu về dự án. "Ở mức độ cơ bản, làm thế nào để con người bắt đầu để làm điều đó? Đó là một vấn đề tính toán."
Các nhà nghiên cứu Rosa Arriaga, Maya Cakmak, David Rutter, và Vempala tại trường Cao đẳng công nghệ Georgia của Computing nghiên cứu hiệu suất của con người ở "chiếu ngẫu nhiên" xét nghiệm để hiểu làm thế nào cũng con người học được một đối tượng. Họ trình bày các đối tượng thử nghiệm với bản gốc, hình ảnh trừu tượng và sau đó hỏi họ một cách chính xác có thể xác định rằng cùng một hình ảnh khi thể hiện một cách ngẫu nhiên chỉ là một phần nhỏ của nó.
"Chúng tôi đưa ra giả thuyết rằng chiếu ngẫu nhiên có thể là một cách con người học," Arriaga, một nhà khoa học nghiên cứu cao cấp và nhà tâm lý học phát triển, giải thích. "Các câu chuyện ngắn gọn là, các dự đoán đã đúng. Chỉ cần 0,15 phần trăm của tổng số dữ liệu là đủ cho con người."
Tiếp theo, các nhà nghiên cứu đã thử nghiệm một thuật toán tính toán để cho phép các máy (các mạng thần kinh rất đơn giản) để hoàn thành các bài kiểm tra tương tự. Máy móc thực hiện cũng như con người, trong đó cung cấp một sự hiểu biết mới về cách con người học hỏi. "Chúng tôi tìm thấy bằng chứng cho thấy, trên thực tế, con người và mạng lưới thần kinh hoạt động rất tương tự," Arriaga cho biết.
Các nhà nghiên cứu muốn tìm ra một định nghĩa toán học của những tác nhân kích thích điển hình và không điển hình như thế và, từ đó, dự đoán đó dữ liệu sẽ khó khăn nhất đối với con người và máy tính để tìm hiểu. Con người và máy móc thực hiện như nhau, chứng minh rằng quả thực người ta có thể dự đoán những dữ liệu sẽ là khó khăn nhất để học theo thời gian.
Kết quả vừa được công bố trên tạp chí Thần kinh Computation (MIT báo chí). Nó được cho là nghiên cứu đầu tiên của "chiếu ngẫu nhiên," các thành phần cốt lõi của lý thuyết các nhà nghiên cứu, các đối tượng con.
Để kiểm tra giả thuyết của họ, các nhà nghiên cứu tạo ra ba gia đình của những hình ảnh trừu tượng ở mức 150 x 150 pixel, sau đó rất nhỏ `` phác thảo ngẫu nhiên "của những hình ảnh đó. đối tượng thử nghiệm được thể hiện toàn bộ hình ảnh trong 10 giây, sau đó thể hiện một cách ngẫu nhiên 16 bản phác thảo của mỗi. Sử dụng hình ảnh trừu tượng đảm bảo rằng không phải con người cũng không phải máy có bất kỳ kiến thức về những gì các đối tượng
được." Chúng tôi đã rất ngạc nhiên bởi cách giữa hiệu suất là giữa các mạng thần kinh cực kỳ đơn giản và con người, "Vempala nói." Việc thiết kế các mạng thần kinh được truyền cảm hứng bởi cách chúng ta nghĩ rằng con người tìm hiểu, nhưng đó là một nguồn cảm hứng yếu. Để thấy rằng nó phù hợp với hiệu suất của con người là khá bất ngờ. "" Giấy hấp dẫn này giới thiệu một chiếu ngẫu nhiên địa phương mà nén hình ảnh trong khi vẫn làm cho nó có thể cho con người và máy móc để phân biệt loại lớn, "Sanjoy Dasgupta, giáo sư về khoa học máy tính và kỹ thuật cho biết tại Đại học California San Diego và một chuyên gia về học máy và chiếu ngẫu nhiên. "Đó là một sự kết hợp sáng tạo của những hiểu biết từ hình học, tính thần kinh, và học máy." Mặc dù các nhà nghiên cứu không thể dứt khoát cho rằng bộ não con người thực sự tham gia vào chiếu ngẫu nhiên , kết quả ủng hộ quan điểm rằng chiếu ngẫu nhiên là một lời giải thích hợp lý, các tác giả kết luận Ngoài ra, nó cho thấy một kỹ thuật rất hữu ích cho máy tính học tập:. dữ liệu lớn là một thách thức lớn hiện nay, và chiếu ngẫu nhiên là một cách để làm cho dữ liệu quản lý được mà không mất nội dung cần thiết, ít nhất là cho các tác vụ cơ bản như phân loại và đưa ra quyết định. Các lý thuyết thuật toán của học dựa trên dự báo ngẫu nhiên đã được trích dẫn hơn 300 lần và đã trở thành một kỹ thuật thường được sử dụng trong máy học để xử lý dữ liệu lớn các loại đa dạng .



đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: