Abstract—In this paper, a supervised neural network training technique dịch - Abstract—In this paper, a supervised neural network training technique Việt làm thế nào để nói

Abstract—In this paper, a supervise

Abstract—In this paper, a supervised neural network training technique based on constrained optimization is developed for preserving prior knowledge of an input–output mapping during repeated incremental training sessions. The prior knowledge, referred to as long-term memory (LTM), is expressed in the form of equality constraints obtained by means of an algebraic training technique. Incremental training, which may be used to learn new short-term memories (STMs) online, is then formulated as an error minimization problem subject to equality constraints. The solution of this problem is simplified by implementing an adjoined error gradient that circumvents direct substitution and exploits classical backpropagation. A target application is neural network function approximation in adaptive critic designs. For illustrative purposes, constrained training is implemented to update an adaptive critic flight controller, while preserving prior knowledge of an established performance baseline that consists of classical gain-scheduled controllers. It is shown both analytically and numerically that the LTM is accurately preserved while the controller is repeatedly trained over time to assimilate new STMs.
Index Terms—Adaptive critics, control, exploration, function approximation, incremental training, interference, knowledge acquisition and retention, memory, online learning, sigmoidal neural networks.

0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Trừu tượng — trong bài báo này, một kỹ thuật đào tạo giám sát mạng nơ-ron ngày tối ưu hóa hạn chế được phát triển để duy trì các kiến thức trước khi một ánh xạ đầu vào-đầu ra trong buổi tập huấn gia tăng lặp đi lặp lại. Kiến thức trước khi, được gọi là bộ nhớ lâu dài (LTM), được thể hiện dưới hình thức bình đẳng hạn chế thu được bằng phương tiện của một kỹ thuật đào tạo đại số. Đào tạo gia tăng, mà có thể được sử dụng để tìm hiểu mới ngắn hạn những kỷ niệm (STMs) trực tuyến, sau đó được xây dựng như một vấn đề giảm thiểu lỗi tùy thuộc vào sự bình đẳng ràng buộc. Các giải pháp của vấn đề này là đơn giản bằng cách thực hiện một gradient adjoined lỗi mà mặt trực tiếp thay thế và khai thác backpropagation cổ điển. Một ứng dụng mục tiêu là xấp xỉ chức năng mạng nơ-ron trong thiết kế nhà phê bình thích nghi. Cho các mục đích minh họa, hạn chế đào tạo được thực hiện để cập nhật một bộ điều khiển chuyến bay thích nghi nhà phê bình, trong khi bảo quản các kiến thức trước khi trong một cơ sở được thành lập hiệu suất bao gồm bộ điều khiển dự kiến sẽ tăng cổ điển. Nó hiển thị cả phân tích và số lượng LTM chính xác có được bảo quản trong khi bộ điều khiển liên tục được đào tạo theo thời gian để đồng hóa mới STMs.Chỉ số điều khoản-thích nghi nhà phê bình, kiểm soát, thăm dò, xấp xỉ chức năng, gia tăng đào tạo, sự can thiệp, kiến thức mua lại và lưu giữ, bộ nhớ, học trực tuyến, sigmoidal mạng nơ-ron.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Tóm tắt-Trong bài báo này, một kỹ thuật huấn luyện mạng nơron có giám sát dựa trên tối ưu hóa ràng buộc được phát triển để bảo tồn kiến thức trước khi một bản đồ đầu vào-đầu ra trong các buổi đào tạo tăng dần lặp đi lặp lại. Các kiến thức trước, được gọi là bộ nhớ dài hạn (LTM), được thể hiện trong các hình thức hạn chế bình đẳng thu được bằng phương tiện của một kỹ thuật đào tạo đại số. Đào tạo gia tăng, trong đó có thể được sử dụng để tìm hiểu những ký ức ngắn hạn mới (STMs) trực tuyến, sau đó được đưa ra như một vấn đề chủ thể giảm thiểu lỗi để hạn chế bình đẳng. Các giải pháp của vấn đề này được đơn giản hóa bằng cách thực hiện một gradient lỗi tiếp giáp mà làm hỏng thay thế trực tiếp và khai thác lan truyền ngược cổ điển. Một ứng dụng mục tiêu là thần kinh chức năng mạng xấp xỉ trong thiết kế nhà phê bình thích nghi. Đối với mục đích minh họa, đào tạo hạn chế được thực hiện để cập nhật một bộ điều khiển chuyến bay phê bình thích ứng, trong khi vẫn giữ kiến thức về đường cơ sở thực hiện thành lập bao gồm các bộ điều khiển được lưu theo lịch cổ điển. Nó được thể hiện cả hai phân tích và bằng con số rằng LTM được bảo quản một cách chính xác trong khi điều khiển được đào tạo liên tục theo thời gian để đồng hóa STMs mới.
Phê bình Index Điều khoản-Adaptive, kiểm soát, thăm dò, chức năng xấp xỉ, đào tạo gia tăng, sự can thiệp, mua lại kiến thức và duy trì, bộ nhớ , học tập trực tuyến, mạng nơron xích ma.

đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: