Earlier Generations of ComputingThe first generation of computing is g dịch - Earlier Generations of ComputingThe first generation of computing is g Việt làm thế nào để nói

Earlier Generations of ComputingThe

Earlier Generations of Computing

The first generation of computing is generally thought of as the "vacuum tube era." These computers used large vacuum tubes as their circuits, and large metal drums as their memory. This first generation of computer lasted for sixteen years, between 1940 and 1956.

Second-generation computing was characterized by a switch from vacuum tubes to transistors, and saw a significant decrease in the size of computing devices. Its popularity and utility in computing machines lasted until 1963, when integrated circuits supplanted them.

During the third generation of computing, between 1964, and 1971, the semiconductor increased the speed and efficiency of computers by leaps and bounds. These semiconductors used miniaturized transistors, which were much smaller than the traditional transistor found in earlier computers, and put them on a silicon chip.

In 1971, computing hit the big time: microprocessing. Microprocessors can be found in every single computing device today, from desktops and laptops to tablets and smartphones. They contain thousands of integrated circuits that are housed on a single chip. Their parts are microscopic, allowing one small processor to handle many simultaneous tasks at the same time.

The Fifth Generation of Computing

While the microprocessor has revolutionized the computing industry, the fifth generation of computer looks to turn the whole industry on its head once again. The fifth generation of computing is called "artificial intelligence," and it is the goal of computer scientists and developers to eventually create computers than outsmart, outwit, and maybe even outlast their human inventors.

Artificial intelligence can be broken into five distinct categories: games playing, robotics, expert systems, neural networks, and natural language. Each of these categories is being developed largely independent of one another; game playing, for instance, has seen great success over the course of the past 15 years, while natural language has taken longer to full develop and perfect.

Robotic ArmGame Playing

No longer will computing simply be a person playing a game alone on their computer; in the future, computers wil be able to play along, and possibly win. One of the biggest breakthroughs of artificial intelligence was in 1997, when an IBM computer successfully beat the world champion of chess at his own game. It was the first time a computer had beat a human being.

In 2011, IBM introduced "Watson" to Jeopardy viewers in the United States. The event was designed as a test for their newest artificial technology that can interpret human language as well as use logic to find the answers to common questions and trivia. Their latest foray into artificial intelligence had a few minor errors when hearing or interpreting questions, but still managed to beat all of its opponents on the trivia-heavy game show -- even longest-running champion, Ken Jennings.

Neural Networks

A neural network tries to reproduce the thoughts and physical connections of human or animal brains, and is one of the hottest areas of fifth generation computing. This is, in fact, the secret to IBM's Watson: they gave him a very human brain that could largely understand language and do enough research to answer questions.

These neural networks are also becoming important in much smaller applications, such as the voice recognition feature on many current personal computers and mobile phones.

Natural Language

This is often considered one of the "holy grails" of artificial intelligence. Currently, the kind of voice recognition that is available to consumers falls more under the category of "dictation" than "conversation." That's because the computer can hear the words and transcribe them into text, but it doesn't really have the ability to understand their meaning or their context.

Likewise, natural language is currently limited to one tone of voice, and most artificial intelligence computing devices can't distinguish between a softy-spoken sentence, and an angry sentence that has been screamed at them in at high volume.

Expert Systems

We've all been victims of so-called "human error," whether it was at the doctor's office, the bank, or even while we were driving our car to one of those places. Increasingly, researchers are looking to artificia intelligence as a sort of fail-proof way of diagnosing patients and doing everyday human tasks.

These so-called expert systems can help people make the right decision in a tough environment; not only are they able to store much more information than the human brain, as well as have it more readily available, but their systems are not clouded by biases and other purely human errors in judgment. Expert systems are quite black and white, quite robotic, and it is the hope of artificial intelligence developers that they will be better at decision making and diagnosing problems than their human counterparts.

Robotics

This might be the most popular area of artificial intelligence among those who are not familiar with more advanced concepts like "neural networks" or "expert systems." But these aren't your typical vacuum-cleaning robots on the late-night infomercials. Robotics in the realm of artificial intelligence is about creating robots which can experience, and react to, external stimuli -- just like their human counterparts.

That means these robots will be able to lead semi-autonomous lives, aware of their surroundings and able to independently modify their behavior based on their environment. It's one of the most promising, and most difficult, areas of artificial intelligence.

Now that you've gotten free know-how on this topic, try to grow your skills even faster with online video training. Then finally, put these skills to the test and make a name for yourself by offering these skills to others by becoming a freelancer. There are literally 2000+ new projects that are posted every single freakin' day, no lie!


Previous Article
Next Article
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Các thế hệ trước đó của máy tínhThế hệ đầu của máy tính là thường nghĩ đến như là "thời đại ống chân không." Các máy tính sử dụng ống chân không lớn như của mạch, và lớn trống kim loại như là bộ nhớ của họ. Này thế hệ đầu tiên của máy tính kéo dài mười sáu năm, từ năm 1940 đến năm 1956.Máy tính thế hệ thứ hai được đặc trưng bởi một chuyển đổi từ ống chân không để bóng bán dẫn, và chứng kiến sự sụt giảm đáng kể kích thước của máy tính thiết bị. Của nó phổ biến và các tiện ích trong máy tính máy kéo dài cho đến năm 1963, khi mạch tích hợp thay thế chúng.Trong thế hệ thứ ba của máy tính, giữa năm 1964, và 1971, chất bán dẫn đã tăng tốc độ và hiệu quả của máy tính bởi leaps and bounds. Các chất bán dẫn sử dụng bóng bán dẫn miniaturized, mà là nhỏ hơn nhiều so với bóng bán dẫn truyền thống tìm thấy trong máy tính trước đó, và đặt chúng vào một chip silicon.Năm 1971, máy tính hit lớn thời gian: microprocessing. Bộ vi xử lý có thể được tìm thấy trong mỗi thiết bị tính toán duy nhất vào ngày hôm nay, từ máy tính để bàn và máy tính xách tay máy tính bảng và điện thoại thông minh. Chúng chứa hàng nghìn mạch tích hợp được đặt trên một phiến tinh thể duy nhất. Các bộ phận được vi, cho phép một trong những bộ vi xử lý nhỏ để xử lý đồng thời nhiều nhiệm vụ cùng một lúc.Thế hệ thứ năm của máy tínhTrong khi bộ vi xử lý đã cách mạng hóa ngành công nghiệp máy tính, thế hệ thứ năm của máy tính sẽ biến toàn bộ ngành công nghiệp trên đầu của nó một lần nữa. Thế hệ thứ năm của máy tính được gọi là "trí tuệ nhân tạo", và nó là mục tiêu của các nhà khoa học máy tính và nhà phát triển để cuối cùng tạo ra máy tính hơn outsmart, outwit, và có lẽ thậm chí lâu hơn của nhà phát minh của con người.Trí tuệ nhân tạo có thể được chia thành năm loại khác biệt: trò chơi chơi, robot, chuyên gia hệ thống, mạng nơ-ron, và ngôn ngữ tự nhiên. Mỗi người trong số các loại đang được phát triển chủ yếu là độc lập với nhau; chơi trò chơi, ví dụ, đã thành công lớn trong suốt 15 năm qua, trong khi ngôn ngữ tự nhiên đã có nhiều thời gian để phát triển đầy đủ và hoàn hảo.Robot ArmGame chơiKhông còn sẽ tính toán chỉ đơn giản là là người chơi một trò chơi một mình trên máy tính của họ; trong tương lai, máy tính wil có thể chơi cùng, và có thể giành chiến thắng nhất. Một trong những bước đột phá lớn nhất của trí tuệ nhân tạo vào năm 1997, khi một máy tính IBM thành công đánh bại nhà vô địch cờ vua thế giới lúc trò chơi riêng của mình. Đó là lần đầu tiên một máy tính đã đánh bại một con người.Năm 2011, IBM giới thiệu "Watson" nguy cơ những người xem tại Hoa Kỳ. Sự kiện này được thiết kế như một thử nghiệm cho công nghệ nhân tạo mới nhất của họ mà có thể giải thích ngôn ngữ của con người cũng như sử dụng logic để tìm câu trả lời cho câu hỏi thường gặp và câu đố. Bước đột phá mới nhất của họ vào trí tuệ nhân tạo có một vài lỗi nhỏ khi nghe hoặc giải thích câu hỏi, nhưng vẫn quản lý để đánh bại tất cả đối thủ của mình vào trò nặng Hiển thị trò chơi--ngay cả dài nhất chạy vô địch, Ken Jennings.Mạng nơ-ronMạng nơ-ron cố gắng để tái tạo những suy nghĩ và các kết nối vật lý của bộ não con người hoặc động vật, và là một trong những vùng nóng nhất của máy tính thế hệ thứ năm. Đây là, trong thực tế, những bí mật của IBM Watson: họ đã cho anh ta một não rất con người mà phần lớn có thể hiểu ngôn ngữ và làm đủ nghiên cứu để trả lời câu hỏi.Các mạng nơ-ron cũng đang trở nên quan trọng trong nhiều ứng dụng nhỏ hơn, chẳng hạn như tính năng nhận dạng giọng nói trên nhiều máy tính cá nhân hiện tại và điện thoại di động.Ngôn ngữ tự nhiênĐiều này thường được coi là một trong "grails thánh" của trí tuệ nhân tạo. Hiện nay, loại nhận dạng giọng nói đó là có sẵn cho người tiêu dùng té ngã hơn theo thể loại "chính tả" hơn "đoạn hội thoại." Đó là bởi vì máy tính có thể nghe những từ và sao lại chúng vào văn bản, nhưng nó thực sự không có khả năng hiểu ý nghĩa của họ hoặc bối cảnh của họ.Tương tự như vậy, ngôn ngữ tự nhiên là hiện đang giới hạn đến một giai điệu của giọng nói, và trí tuệ nhân tạo hầu hết máy tính thiết bị không thể phân biệt giữa một câu nói softy, và một câu tức giận mà có gào lên lúc họ trong lúc cao khối lượng.Chuyên gia hệ thốngChúng tôi đã tất cả các nạn nhân của cái gọi là "lỗi của con người," cho dù đó là tại văn phòng của bác sĩ, ngân hàng, hoặc thậm chí trong khi chúng tôi đã lái xe của chúng tôi để một trong những nơi. Ngày càng nhiều, nhà nghiên cứu đang tìm kiếm để artificia thông minh như là một loại thất bại-bằng chứng cách chẩn đoán bệnh nhân và làm công việc hàng ngày của con người.Các chuyên gia gọi là hệ thống có thể giúp mọi người làm cho các quyết định đúng trong một môi trường khó khăn; không chỉ là họ có thể lưu trữ các thông tin nhiều hơn nữa so với bộ não con người, cũng như có nó dễ dàng hơn, nhưng hệ thống của họ không trời có nhiều mây bởi biases và lỗi của con người hoàn toàn khác trong bản án. Chuyên gia hệ thống là khá màu đen và trắng, khá robot, và nó là niềm hy vọng của nhà phát triển trí tuệ nhân tạo mà họ sẽ tốt hơn lúc quyết định thực hiện và chẩn đoán các vấn đề hơn đối tác của con người của họ.RobotĐiều này có thể là khu vực phổ biến nhất của trí tuệ nhân tạo trong số những người không quen thuộc với các khái niệm tiên tiến hơn như "mạng nơ-ron" hoặc "chuyên gia hệ thống." Nhưng đây không phải là điển hình làm sạch chân không robot của bạn vào đêm cuối infomercials. Robot trong lĩnh vực trí tuệ nhân tạo là về việc tạo robot có thể kinh nghiệm, và phản ứng với, kích thích bên ngoài--giống như đối tác của con người của họ.Đó có nghĩa là các robot sẽ có thể sống cuộc sống bán tự trị, nhận thức của môi trường xung quanh của họ và có thể độc lập thay đổi hành vi của họ dựa trên môi trường của họ. Nó là một trong các lĩnh vực triển vọng, và khó khăn nhất, trí tuệ nhân tạo.Bây giờ mà bạn đã nhận được miễn phí bí quyết về chủ đề này, cố gắng để phát triển kỹ năng của bạn nhanh hơn với online video đào tạo. Sau đó, cuối cùng, đưa các kỹ năng để thử nghiệm và làm cho một tên cho chính mình bằng cách cung cấp các kỹ năng cho những người khác bằng cách trở thành một freelancer. Nghĩa đen là 2000 + mới dự án được đăng mỗi ngày freakin ', không nói dối!Trước bài viết Tiếp theo bài viết
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Earlier Generations of Computing

The first generation of computing is generally thought of as the "vacuum tube era." These computers used large vacuum tubes as their circuits, and large metal drums as their memory. This first generation of computer lasted for sixteen years, between 1940 and 1956.

Second-generation computing was characterized by a switch from vacuum tubes to transistors, and saw a significant decrease in the size of computing devices. Its popularity and utility in computing machines lasted until 1963, when integrated circuits supplanted them.

During the third generation of computing, between 1964, and 1971, the semiconductor increased the speed and efficiency of computers by leaps and bounds. These semiconductors used miniaturized transistors, which were much smaller than the traditional transistor found in earlier computers, and put them on a silicon chip.

In 1971, computing hit the big time: microprocessing. Microprocessors can be found in every single computing device today, from desktops and laptops to tablets and smartphones. They contain thousands of integrated circuits that are housed on a single chip. Their parts are microscopic, allowing one small processor to handle many simultaneous tasks at the same time.

The Fifth Generation of Computing

While the microprocessor has revolutionized the computing industry, the fifth generation of computer looks to turn the whole industry on its head once again. The fifth generation of computing is called "artificial intelligence," and it is the goal of computer scientists and developers to eventually create computers than outsmart, outwit, and maybe even outlast their human inventors.

Artificial intelligence can be broken into five distinct categories: games playing, robotics, expert systems, neural networks, and natural language. Each of these categories is being developed largely independent of one another; game playing, for instance, has seen great success over the course of the past 15 years, while natural language has taken longer to full develop and perfect.

Robotic ArmGame Playing

No longer will computing simply be a person playing a game alone on their computer; in the future, computers wil be able to play along, and possibly win. One of the biggest breakthroughs of artificial intelligence was in 1997, when an IBM computer successfully beat the world champion of chess at his own game. It was the first time a computer had beat a human being.

In 2011, IBM introduced "Watson" to Jeopardy viewers in the United States. The event was designed as a test for their newest artificial technology that can interpret human language as well as use logic to find the answers to common questions and trivia. Their latest foray into artificial intelligence had a few minor errors when hearing or interpreting questions, but still managed to beat all of its opponents on the trivia-heavy game show -- even longest-running champion, Ken Jennings.

Neural Networks

A neural network tries to reproduce the thoughts and physical connections of human or animal brains, and is one of the hottest areas of fifth generation computing. This is, in fact, the secret to IBM's Watson: they gave him a very human brain that could largely understand language and do enough research to answer questions.

These neural networks are also becoming important in much smaller applications, such as the voice recognition feature on many current personal computers and mobile phones.

Natural Language

This is often considered one of the "holy grails" of artificial intelligence. Currently, the kind of voice recognition that is available to consumers falls more under the category of "dictation" than "conversation." That's because the computer can hear the words and transcribe them into text, but it doesn't really have the ability to understand their meaning or their context.

Likewise, natural language is currently limited to one tone of voice, and most artificial intelligence computing devices can't distinguish between a softy-spoken sentence, and an angry sentence that has been screamed at them in at high volume.

Expert Systems

We've all been victims of so-called "human error," whether it was at the doctor's office, the bank, or even while we were driving our car to one of those places. Increasingly, researchers are looking to artificia intelligence as a sort of fail-proof way of diagnosing patients and doing everyday human tasks.

These so-called expert systems can help people make the right decision in a tough environment; not only are they able to store much more information than the human brain, as well as have it more readily available, but their systems are not clouded by biases and other purely human errors in judgment. Expert systems are quite black and white, quite robotic, and it is the hope of artificial intelligence developers that they will be better at decision making and diagnosing problems than their human counterparts.

Robotics

This might be the most popular area of artificial intelligence among those who are not familiar with more advanced concepts like "neural networks" or "expert systems." But these aren't your typical vacuum-cleaning robots on the late-night infomercials. Robotics in the realm of artificial intelligence is about creating robots which can experience, and react to, external stimuli -- just like their human counterparts.

That means these robots will be able to lead semi-autonomous lives, aware of their surroundings and able to independently modify their behavior based on their environment. It's one of the most promising, and most difficult, areas of artificial intelligence.

Now that you've gotten free know-how on this topic, try to grow your skills even faster with online video training. Then finally, put these skills to the test and make a name for yourself by offering these skills to others by becoming a freelancer. There are literally 2000+ new projects that are posted every single freakin' day, no lie!


Previous Article
Next Article
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: