Direct OptimizationIn direct optimization we differentiate the error s dịch - Direct OptimizationIn direct optimization we differentiate the error s Việt làm thế nào để nói

Direct OptimizationIn direct optimi

Direct Optimization
In direct optimization we differentiate the error sum of squares with respect
to each unknown coefficient, or parameter, set the resulting equation to
zero, and solve the resulting normal equations simultaneously. We have
already seen this in Eqs. (14.2.4) and (14.2.5). But as you can see from these
equations, they cannot be solved explicitly or analytically. Some iterative
routine is therefore called for. One routine is called the method of steepest
descent. We will not discuss the technical details of this method as they are
somewhat involved, but the reader can find the details in the references.
Like the method of trial and error, the method of steepest descent also involves selecting initial trial values of the unknown parameters but then it
proceeds more systematically than the hit-or-miss or trial-and-error
method. One disadvantage of this method is that it may converge to the final
values of the parameters extremely slowly.
Iterative Linearization Method
In this method we linearize a nonlinear equation around some initial values
of the parameters. The linearized equation is then estimated by OLS and the
initially chosen values are adjusted. These adjusted values are used to relinearize the model, and again we estimate it by OLS and readjust the estimated values. This process is continued until there is no substantial change
in the estimated values from the last couple of iterations. The main technique used in linearizing a nonlinear equation is the Taylor series expansion from calculus. Rudimentary details of this method are given in Appendix 14A, Section 14A.2. Estimating NLRM using Taylor series expansion is
systematized in two algorithms, known as the Gauss–Newton iterative
method and the Newton–Raphson iterative method. Since one or both of
these methods are now incorporated in several computer packages, and
since a discussion of their technical details will take us far beyond the scope
of this book, there is no need to dwell on them here.6 In the next section we
discuss some examples using these methods.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Tối ưu hóa trực tiếpTối ưu hóa trực tiếp, chúng tôi phân biệt các lỗi tổng của các ô vuông với sự tôn trọngđể mỗi không biết hệ số, hoặc tham số, hãy đặt các phương trình kết quảZero, và giải quyết các phương trình kết quả bình thường cùng một lúc. Chúng tôi cóđã thấy điều này trong Eqs. (14.2.4) và (14.2.5). Tuy nhiên, như bạn có thể nhìn thấy từ nhữngphương trình, họ không thể được giải quyết một cách rõ ràng hoặc phân tích. Một số lặp đi lặp lạithói quen do đó được gọi là cho. Một trong những thói quen được gọi là phương pháp đườnggốc. Chúng tôi sẽ không thảo luận về các chi tiết kỹ thuật của phương pháp này như họphần nào có liên quan, nhưng người đọc có thể tìm thấy các chi tiết trong các tài liệu tham khảo.Giống như các phương pháp thử nghiệm và lỗi, phương pháp gốc dốc nhất cũng liên quan đến việc lựa chọn ban đầu thử nghiệm giá trị của các tham số không rõ, nhưng sau đó nótiền có hệ thống hơn hit-or-miss hoặc thử nghiệm và báo lỗiphương pháp. Một bất lợi của phương pháp này là nó có thể hội tụ về trận chung kếtgiá trị của các tham số rất chậm.Phương pháp lặp đi lặp lại LinearizationTrong phương pháp này, chúng tôi linearize một phương trình phi tuyến xung quanh một số giá trị ban đầuCác tham số. Phương trình linearized sau đó ước tính của OLS và cácBan đầu được lựa chọn giá trị được điều chỉnh. Những giá trị điều chỉnh được sử dụng để relinearize các mô hình, và một lần nữa chúng tôi ước tính bằng OLS và điều chỉnh các giá trị ước tính. Quá trình này tiếp tục cho đến khi không có thay đổi đáng kểtrong các giá trị ước tính từ các cặp vợ chồng cuối cùng của lặp đi lặp lại. Kỹ thuật chính được sử dụng trong linearizing một phương trình phi tuyến là mở rộng loạt Taylor từ tính toán. Các chi tiết thô sơ của phương pháp này được đưa ra trong phụ lục 14A, phần 14A.2. Ước tính NLRM sử dụng Taylor loạt mở rộng làsystematized trong hai thuật toán, gọi là Gauss-Newton lặp đi lặp lạiphương pháp và phương pháp Newton-Raphson lặp đi lặp lại. Kể từ khi một hoặc cả hainhững phương pháp này bây giờ được kết hợp trong vài gói phần mềm máy tính, vàkể từ khi một cuộc thảo luận chi tiết kỹ thuật của họ sẽ đưa chúng ta vượt xa phạm vitrong cuốn sách này, đó là không cần để ngự trên họ here.6 trong kế tiếp phần chúng tôithảo luận về một số ví dụ bằng cách sử dụng những phương pháp này.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Tối ưu hóa trực tiếp
Trong tối ưu hóa trực tiếp chúng tôi phân biệt tổng sai số của hình vuông đối với
từng hệ số chưa biết, hoặc tham số, thiết lập các phương trình dẫn đến
không, và giải quyết các phương trình bình thường dẫn đến cùng một lúc. Chúng tôi đã
đã nhìn thấy điều này trong EQS. (14.2.4) và (14.2.5). Tuy nhiên, như bạn có thể nhìn thấy từ các
phương trình, họ có thể không được giải quyết một cách rõ ràng hoặc có phân tích. Một số lặp đi lặp lại
do đó thường được gọi là cho. Một thói quen được gọi là phương pháp nhanh nhất
gốc. Chúng tôi sẽ không thảo luận về các chi tiết kỹ thuật của phương pháp này là chúng được
phần nào tham gia, nhưng người đọc có thể tìm thấy các chi tiết trong tài liệu tham khảo.
Giống như phương pháp thử và sai, phương pháp có nguồn gốc sâu nhất cũng liên quan đến việc lựa chọn các giá trị thử nghiệm ban đầu của các tham số chưa biết nhưng sau đó nó
tiến hành có hệ thống hơn so với hit-or-miss hoặc dùng thử-và-sai
phương pháp. Một nhược điểm của phương pháp này là nó có thể hội tụ vào thức
giá trị của các thông số cực kỳ chậm.
Lặp đi lặp lại tuyến tính Phương pháp
Trong phương pháp này, chúng tôi linearize một phương trình phi tuyến xung quanh một số giá trị ban đầu
của các thông số. Thì phương trình tuyến tính được ước lượng bằng OLS và
các giá trị ban đầu được lựa chọn sẽ được điều chỉnh. Những giá trị này điều chỉnh được sử dụng để relinearize mô hình, và một lần nữa chúng tôi ước tính nó bằng OLS và điều chỉnh các giá trị ước tính. Quá trình này được tiếp tục cho đến khi không có thay đổi đáng kể
trong các giá trị ước tính từ các cặp vợ chồng cuối cùng của lần lặp lại. Các kỹ thuật chính được sử dụng trong linearizing một phương trình phi tuyến là loạt triển Taylor từ các phép toán. Chi tiết thô sơ của phương pháp này được đưa ra trong Phụ lục 14A, mục 14A.2. Ước tính NLRM sử dụng mở rộng chuỗi Taylor được
hệ thống hóa trong hai thuật toán, được gọi là lặp đi lặp Gauss-Newton
phương pháp và Newton-Raphson phương pháp lặp đi lặp lại. Kể từ khi một hoặc cả hai của
các phương pháp này hiện nay được tích hợp trong một số gói máy tính, và
kể từ khi một cuộc thảo luận về các chi tiết kỹ thuật của họ sẽ đưa chúng ta vượt xa phạm vi
của cuốn sách này, không cần chú trọng vào chúng here.6 Trong phần tiếp theo chúng tôi
thảo luận về một số ví dụ sử dụng các phương pháp này.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: