How can you tell if a computer can think? In 1950, Alan Turing – the f dịch - How can you tell if a computer can think? In 1950, Alan Turing – the f Việt làm thế nào để nói

How can you tell if a computer can

How can you tell if a computer can think? In 1950, Alan Turing – the father of computer science – suggested a simple test. Step one: design a computer program that can simulate human conversation. (Which was no mean feat, given how primitive the computers of the mid-twentieth century were.) Step two: place it behind a screen or otherwise conceal it from view. Step three: invite a human being to converse with the computer in the form of text messages. Step four: Ask the person whether their unseen interlocutor is a fellow human or a machine.
If he or she mistakes the computer-generated conversation for a human, then voila: the computer, according to Turing, can be said "to think".
It sounds more like a parlour game than a thought experiment, and many in the field regard it as just that. Nevertheless, this "Turing test" went on to drive decades of research on artificial intelligence. It even spawned an annual contest since 1991 called the Loebner Prize, where judges hold short conversations with concealed artificial-intelligence programs and humans, and then have to decide which is which. (In the absence of any program passing the test, a smaller prize is given to the most “humanlike” one.)
Turing predicted that a computer would successfully fulfill his thought experiment before the year 2000, but to this day, no computer program has passed the test – not even yesterday’s winner of the 2012 Loebner Prize, Chip Vivant. This is partly due to the mushy parameters of the test itself – for instance, how long must the computer engage in freewheeling conversation before the human passes judgment on its identity? Five minutes? Three hours? Turing never says – but also because flawlessly imitating human conversation turns out to be more complicated than anyone expected. So what would it take to build a machine that can pass Turing's infamous test?
Mind your language
One thing is for sure: brute-force logic will not do the trick. In the early days of artificial intelligence research, "thinking" was assumed to be simple matter of connecting symbols together using discrete rules. "There was this idea in the 1960s of cutting the world up into objects and actions that you can name: book, table, talking, running," says Robert French, a cognitive scientist at The French National Centre for Scientific Research. "All the words in the dictionary are symbols that refer to the world. So if you put them all together in a careful manner, intelligence should emerge, roughly."
Except it doesn't. This approach, called "symbolic AI," snaps like a twig when subjected to the slightest bit of ambiguity. After all, no dictionary rule can tell a computer how to appropriately respond to the casual question, "What's up?" (If you answer "Up is the opposite of down," you have just failed the Turing test.) A densely interconnected database may contain "intelligent" information, but it is not intelligent itself. As Brian Christian, author of The Most Human Human: What Artificial Intelligence Tells Us About Being Alive, puts it: "When we read a book, we don't think the book has the ideas."
A much better way to simulate human conversation is to sidestep logic and aim for a quality called "statelessness". In a stateless conversation, each response only has to vaguely reference the one that came immediately before it. This behaviour is much easier to program into a computer, which is why so-called “chatbots” have become so prevalent online.
In the mid-1960s, ELIZA, one of the world's first chatbots, effectively impersonated a psychotherapist by parroting users' language back at them. In the 2000s, a more sophisticated chatbot called ALICE won the Loebner Prize three times by using essentially the same technique. Still, these stateless interactions are hardly what anyone would call "intelligent" – ironically, it is their almost total vacuousness that makes them seem so human. But not human enough, it seems: ALICE may have outperformed other chatbots, but it still could not fool human judges consistently enough to pass the Turing test.
So if knowing plenty of facts and making hollow small talk are not skills that allow a computer to pass the Turing test, what aspect of "human-like intelligence" is being left out? The one thing we have that computer programs do not: bodies.
Total recall
According to French, intelligence actually floats on a "huge sea of stuff underneath cognition" – and most of it consists of associative sensory experiences, the "what it's like"-nesses built up by a physical body interacting with a physical world. This "subcognitive" information could include the memory of falling off a bike and skinning your knee, or biting into a sandwich at the beach and feeling sand crunch between your teeth. But it also includes more abstract notions, like the answer to the following question: "Is 'Flugly' a better name for a glamorous actress or a teddy bear?"
Even though "flugly" is a nonsense word, almost any English-speaking human would pick the teddy bear, says French. Why? "A computer doesn't have a history of embodied experience encountering soft teddy bears, pretty actresses, or even the sounds of the English language," French says. "All these things allow human beings to answer these questions in a consistent way, which a computer has no access to." Which means any disembodied program has an Achilles heel when it comes to passing the Turing test.
But that may soon change. French cites "life-capturing" experiments, like MIT researcher Deb Roy's ongoing efforts to record every waking second of his infant son's life, as a possible way around the embodiment problem. "What would happen if a computer were exposed to all of same the sights and sounds and sensory experiences that a person was, for years and years?" French says. "We can now collect this data. If the computer can analyse it and correlate it correctly, is it unreasonable to imagine that it could answer 'Flugly'-type questions just like a human would?"
French does not think on-the-fly analysis of such a massive dataset will be possible anytime soon. "But at some point in time, we're going to get there," he says. At which point – assuming it works, and a computer program passes the Turing test – what will this mean in practical terms? Will we deem the device intelligent? Or will we simply add “have a convincing conversation” to the ever-growing list of interesting things that computers can do, like “beat humans at chess” (as IBM’s Deep Blue did in a match with Garry Kasparov in 1997) or “play Jeopardy! on television” (as Watson did in 2011)?
The renowned computer scientist Edsger Dijkstra said that "the question of whether machines can think is about as relevant as the question of whether submarines can swim." Semantics and philosophy of "intelligence" aside, a computer that can pass the Turing test can do exactly one thing very well: talk to people like an individual. Which means that the Turing test may simply be replaced by a different question, one that is no less difficult to answer. "We can imitate a person," says Brian Christian. "But which one?
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
How can you tell if a computer can think? In 1950, Alan Turing – the father of computer science – suggested a simple test. Step one: design a computer program that can simulate human conversation. (Which was no mean feat, given how primitive the computers of the mid-twentieth century were.) Step two: place it behind a screen or otherwise conceal it from view. Step three: invite a human being to converse with the computer in the form of text messages. Step four: Ask the person whether their unseen interlocutor is a fellow human or a machine.If he or she mistakes the computer-generated conversation for a human, then voila: the computer, according to Turing, can be said "to think".It sounds more like a parlour game than a thought experiment, and many in the field regard it as just that. Nevertheless, this "Turing test" went on to drive decades of research on artificial intelligence. It even spawned an annual contest since 1991 called the Loebner Prize, where judges hold short conversations with concealed artificial-intelligence programs and humans, and then have to decide which is which. (In the absence of any program passing the test, a smaller prize is given to the most “humanlike” one.)Turing predicted that a computer would successfully fulfill his thought experiment before the year 2000, but to this day, no computer program has passed the test – not even yesterday’s winner of the 2012 Loebner Prize, Chip Vivant. This is partly due to the mushy parameters of the test itself – for instance, how long must the computer engage in freewheeling conversation before the human passes judgment on its identity? Five minutes? Three hours? Turing never says – but also because flawlessly imitating human conversation turns out to be more complicated than anyone expected. So what would it take to build a machine that can pass Turing's infamous test?Mind your languageOne thing is for sure: brute-force logic will not do the trick. In the early days of artificial intelligence research, "thinking" was assumed to be simple matter of connecting symbols together using discrete rules. "There was this idea in the 1960s of cutting the world up into objects and actions that you can name: book, table, talking, running," says Robert French, a cognitive scientist at The French National Centre for Scientific Research. "All the words in the dictionary are symbols that refer to the world. So if you put them all together in a careful manner, intelligence should emerge, roughly."Except it doesn't. This approach, called "symbolic AI," snaps like a twig when subjected to the slightest bit of ambiguity. After all, no dictionary rule can tell a computer how to appropriately respond to the casual question, "What's up?" (If you answer "Up is the opposite of down," you have just failed the Turing test.) A densely interconnected database may contain "intelligent" information, but it is not intelligent itself. As Brian Christian, author of The Most Human Human: What Artificial Intelligence Tells Us About Being Alive, puts it: "When we read a book, we don't think the book has the ideas."A much better way to simulate human conversation is to sidestep logic and aim for a quality called "statelessness". In a stateless conversation, each response only has to vaguely reference the one that came immediately before it. This behaviour is much easier to program into a computer, which is why so-called “chatbots” have become so prevalent online.In the mid-1960s, ELIZA, one of the world's first chatbots, effectively impersonated a psychotherapist by parroting users' language back at them. In the 2000s, a more sophisticated chatbot called ALICE won the Loebner Prize three times by using essentially the same technique. Still, these stateless interactions are hardly what anyone would call "intelligent" – ironically, it is their almost total vacuousness that makes them seem so human. But not human enough, it seems: ALICE may have outperformed other chatbots, but it still could not fool human judges consistently enough to pass the Turing test.So if knowing plenty of facts and making hollow small talk are not skills that allow a computer to pass the Turing test, what aspect of "human-like intelligence" is being left out? The one thing we have that computer programs do not: bodies.Total recallAccording to French, intelligence actually floats on a "huge sea of stuff underneath cognition" – and most of it consists of associative sensory experiences, the "what it's like"-nesses built up by a physical body interacting with a physical world. This "subcognitive" information could include the memory of falling off a bike and skinning your knee, or biting into a sandwich at the beach and feeling sand crunch between your teeth. But it also includes more abstract notions, like the answer to the following question: "Is 'Flugly' a better name for a glamorous actress or a teddy bear?"Even though "flugly" is a nonsense word, almost any English-speaking human would pick the teddy bear, says French. Why? "A computer doesn't have a history of embodied experience encountering soft teddy bears, pretty actresses, or even the sounds of the English language," French says. "All these things allow human beings to answer these questions in a consistent way, which a computer has no access to." Which means any disembodied program has an Achilles heel when it comes to passing the Turing test.But that may soon change. French cites "life-capturing" experiments, like MIT researcher Deb Roy's ongoing efforts to record every waking second of his infant son's life, as a possible way around the embodiment problem. "What would happen if a computer were exposed to all of same the sights and sounds and sensory experiences that a person was, for years and years?" French says. "We can now collect this data. If the computer can analyse it and correlate it correctly, is it unreasonable to imagine that it could answer 'Flugly'-type questions just like a human would?"French does not think on-the-fly analysis of such a massive dataset will be possible anytime soon. "But at some point in time, we're going to get there," he says. At which point – assuming it works, and a computer program passes the Turing test – what will this mean in practical terms? Will we deem the device intelligent? Or will we simply add “have a convincing conversation” to the ever-growing list of interesting things that computers can do, like “beat humans at chess” (as IBM’s Deep Blue did in a match with Garry Kasparov in 1997) or “play Jeopardy! on television” (as Watson did in 2011)?The renowned computer scientist Edsger Dijkstra said that "the question of whether machines can think is about as relevant as the question of whether submarines can swim." Semantics and philosophy of "intelligence" aside, a computer that can pass the Turing test can do exactly one thing very well: talk to people like an individual. Which means that the Turing test may simply be replaced by a different question, one that is no less difficult to answer. "We can imitate a person," says Brian Christian. "But which one?
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Làm thế nào bạn có thể cho biết nếu một máy tính có thể nghĩ? Năm 1950, Alan Turing - cha đẻ của khoa học máy tính - đề nghị một thử nghiệm đơn giản. Bước một: thiết kế một chương trình máy tính có thể mô phỏng cuộc trò chuyện của con người. (Nào là không có nghĩa là kỳ công, làm thế nào cho các máy tính nguyên thủy của giữa thế kỷ XX được.) Bước hai: nơi nó đằng sau một màn hình hoặc che giấu nó khỏi tầm nhìn. Bước ba: mời một con người để trò chuyện với máy tính dưới dạng tin nhắn văn bản. Bước bốn: Yêu cầu người cho dù người đối thoại vô hình của họ là một người đồng nghiệp hay một cái máy.
Nếu người ấy sai lầm cuộc trò chuyện máy tính tạo ra một con người, sau đó thì đấy: máy tính, theo Turing, có thể nói là "nghĩ".
Nó có vẻ giống như một trò chơi parlor hơn một thí nghiệm tưởng tượng, và nhiều người trong trường đều xem nó như là chỉ đó. Tuy nhiên, kiểm tra này "Turing" đã đi vào để lái thập kỷ nghiên cứu về trí tuệ nhân tạo. Nó thậm chí sinh ra một cuộc thi hàng năm kể từ năm 1991 được gọi là giải Loebner, nơi thẩm phán giữ cuộc trò chuyện ngắn với các chương trình và con người nhân tạo tình báo giấu, và sau đó có quyết định được mà. (Trong trường hợp không có bất kỳ chương trình đi qua các kiểm tra, một giải thưởng nhỏ hơn được trao cho "như con người" một nhất.)
Turing dự đoán rằng một máy tính sẽ thực hiện thành công thí nghiệm tưởng tượng của mình trước năm 2000, nhưng cho đến ngày nay, không có chương trình máy tính có thông qua các bài kiểm tra - ngay cả người chiến thắng của ngày hôm qua của giải Loebner 2012, Chip Vivant. Điều này một phần là do các thông số ủy mị của các thử nghiệm bản thân - ví dụ, bao lâu phải các máy tính tham gia vào cuộc trò chuyện phóng túng trước những con người vượt qua sự phán xét ​​về danh tính của mình? Năm phút? Ba giơ? Turing không bao giờ nói - nhưng cũng vì hoàn hảo bắt chước chuyện người hóa ra là phức tạp hơn so với bất cứ ai mong đợi. Vì vậy, những gì nó sẽ có được để xây dựng một cỗ máy có thể vượt qua thử nghiệm nổi tiếng của Turing?
Tâm trí ngôn ngữ của bạn
Một điều chắc chắn là: brute-force logic sẽ không làm các trick. Trong những ngày đầu của nghiên cứu trí thông minh nhân tạo, "tư duy" được giả định là vấn đề đơn giản của việc kết nối các biểu tượng với nhau bằng cách sử dụng quy tắc riêng biệt. "Có ý tưởng này vào những năm 1960 của thế giới cắt ra thành các đối tượng và hành động mà bạn có thể đặt tên: cuốn sách, bảng, nói chuyện, chạy," Robert Pháp, một nhà khoa học nhận thức tại Trung tâm Quốc gia Pháp cho nghiên cứu khoa học cho biết. "Tất cả các từ trong từ điển là những biểu tượng mà chỉ đến thế giới. Vì vậy, nếu bạn đặt tất cả chúng với nhau một cách cẩn thận, thông minh nên xuất hiện, khoảng."
Ngoại trừ nó không. Cách tiếp cận này, được gọi là "biểu tượng AI," dính như một cành khi chịu chút sung sướng mơ hồ. Sau khi tất cả, không có quy tắc điển cũng có thể nói với một máy tính như thế nào để phù hợp đáp ứng với các câu hỏi giản dị, "Có chuyện gì?" (Nếu bạn trả lời "Up là đối diện của xuống," bạn vừa thất bại trong việc kiểm tra Turing.) Một cơ sở dữ liệu mật độ kết nối có thể chứa thông tin "thông minh", nhưng nó không phải là thông minh bản thân. Khi Brian Christian, tác giả của The Most Nhân lực: Trí tuệ nhân tạo gì cho chúng ta biết về Là Alive, đặt nó: "Khi chúng ta đọc một cuốn sách, chúng tôi không nghĩ rằng cuốn sách có những ý tưởng."
Một cách tốt hơn để mô phỏng chuyện con người là để bên ngoài logic và mục tiêu cho một chất gọi là "statelessness". Trong một cuộc trò chuyện không quốc tịch, mỗi câu trả lời chỉ có một cách mơ hồ để tham khảo một mà đến ngay lập tức trước khi nó. Hành vi này là dễ dàng hơn nhiều cho chương trình vào máy tính, đó là lý do tại sao cái gọi là "chatbots" đã trở nên quá phổ biến trên mạng.
Vào giữa năm 1960, ELIZA, một trong chatbots đầu tiên trên thế giới, hiệu quả mạo nhận một nhà tâm lý của parroting ngôn ngữ của người sử dụng lại họ. Trong những năm 2000, một chatbot phức tạp hơn gọi là ALICE đoạt giải Loebner ba lần bằng cách sử dụng cơ bản các kỹ thuật tương tự. Tuy nhiên, những tương tác không quốc tịch là hầu như không gì có ai sẽ gọi là "thông minh" - trớ trêu thay, nó gần như là tổng vacuousness của họ mà làm cho họ có vẻ rất con người. Nhưng không đủ nhân lực, có vẻ như: ALICE có thể đã tốt hơn chatbots khác, nhưng nó vẫn không thể đánh lừa các thẩm phán con người luôn đủ để vượt qua các bài kiểm tra Turing.
Vì vậy, nếu biết rất nhiều sự kiện và làm rỗng nói chuyện nhỏ không kỹ năng cho phép một máy tính để vượt qua được thử Turing, những khía cạnh của "trí thông minh của con người giống như" đang bị bỏ rơi? Một trong những điều chúng tôi đã có các chương trình máy tính không: cơ quan.
Tổng thu hồi
Theo Pháp, trí thông minh thực sự trôi nổi trên một "biển lớn thứ bên dưới nhận thức" - và hầu hết nó bao gồm những kinh nghiệm cảm giác liên kết, "những gì nó giống như" - các doanh xây dựng bởi một cơ thể vật lý tương tác với một thế giới vật chất. Điều này "subcognitive" thông tin có thể bao gồm bộ nhớ của rơi khỏi một chiếc xe đạp và lột da đầu gối của bạn, hoặc cắn vào một bánh sandwich ở bãi biển và cảm thấy khủng hoảng cát giữa hai hàm răng của bạn. Nhưng nó cũng bao gồm những khái niệm trừu tượng hơn, giống như câu trả lời cho các câu hỏi sau đây: "Là 'Flugly' một tên tốt hơn cho một nữ diễn viên quyến rũ hay một con gấu bông?"
Mặc dù "flugly" là một từ vô nghĩa, hầu như bất kỳ con người nói tiếng Anh sẽ chọn con gấu teddy, Pháp nói. Tại Sao? "Một máy tính không có một lịch sử của kinh nghiệm thể hiện gặp phải gấu bông mềm mại, nữ diễn viên xinh đẹp, hoặc ngay cả những âm thanh của ngôn ngữ tiếng Anh," Pháp nói. "Tất cả những điều này cho phép con người có thể trả lời những câu hỏi này một cách nhất quán, trong đó một máy tính không có quyền truy cập vào." Có nghĩa là bất kỳ chương trình disembodied có một gót chân Achilles khi nói đến đi qua các bài kiểm tra Turing.
Nhưng điều đó có thể sẽ sớm thay đổi. Pháp trích dẫn thí nghiệm "cuộc sống-chụp", giống như nỗ lực không ngừng nghiên cứu MIT Deb Roy để ghi lại mọi thứ thức của cuộc sống đứa con trai của mình, như là một cách có thể xung quanh vấn đề hiện thân. "Điều gì sẽ xảy ra nếu một máy tính đã được tiếp xúc với tất cả các giống các điểm tham quan và âm thanh và trải nghiệm cảm giác rằng một người là, trong nhiều năm qua và năm?" Pháp cho biết. "Bây giờ chúng ta có thể thu thập các dữ liệu này. Nếu máy tính có thể phân tích nó và tương quan một cách chính xác, nó là bất hợp lý để tưởng tượng rằng nó có thể trả lời câu hỏi 'Flugly' kiểu giống như một con người sẽ?"
Pháp không nghĩ on-the-fly phân tích của một tập dữ liệu lớn như vậy sẽ có thể bất cứ lúc nào sớm. "Nhưng tại một số điểm trong thời gian, chúng ta sẽ đạt được điều đó," ông nói. Tại thời điểm đó - giả sử nó hoạt động, và một chương trình máy tính vượt qua các bài kiểm tra Turing - điều này sẽ có nghĩa là trong thực tế? Chúng tôi sẽ cho là các thiết bị thông minh? Hoặc sẽ chúng ta chỉ thêm "có một cuộc trò chuyện thuyết phục" vào danh sách ngày càng tăng của những điều thú vị mà máy tính có thể làm, như "thắng người, cờ vua" (như Deep Blue của IBM đã làm trong trận đấu với Garry Kasparov vào năm 1997) hay "chơi Jeopardy! trên truyền hình "(như Watson đã làm trong năm 2011)?
Các nhà khoa học máy tính nổi tiếng Edsger Dijkstra nói rằng "các câu hỏi về việc liệu máy có thể nghĩ là về là có liên quan như các câu hỏi về việc liệu tàu ngầm có thể bơi." Ngữ nghĩa học và triết học của "trí thông minh" sang một bên, một máy tính có thể vượt qua được thử Turing có thể làm chính xác một điều rất rõ: nói chuyện với những người như một cá nhân. Điều đó có nghĩa rằng các thử nghiệm Turing chỉ đơn giản có thể được thay thế bằng một câu hỏi khác nhau, một trong đó là không ít khó khăn để trả lời. "Chúng ta có thể bắt chước một người," Brian Christian nói. "Nhưng mà một trong những?
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: