Các tiêu chí tối ưu, tức là hạn Q (x, c), có thể có một cách giải thích khác nhau về thể chất hoặc ý nghĩa khi được thực hiện trên một hệ thống thực. Ví dụ, nó là độ lệch từ mong muốn hành vi (hay đầu ra) của một hệ thống trong một ứng dụng điều khiển. Vì vậy, các giải pháp tối ưu cho vấn đề được mô tả bởi phương trình (7.1) - (7.3) bây giờ là một vấn đề của việc tìm kiếm các vector c = c *, còn được gọi là các vector tối ưu, thỏa mãn J (c). Nó phải được lưu ý ở đây là một quá trình hoặc hệ thống mà tối ưu được tìm kiếm có thể được xác định hoặc ngẫu nhiên trong tự nhiên. Đó là bây giờ rõ ràng rằng đối với bất kỳ hệ thống xác định hoặc ngẫu nhiên các tiêu chí tối ưu, tức là, J chức năng (c) trong phương trình (7.1) - (7.3), nên được biết đến một cách rõ ràng với đủ a priori thông tin cùng với các khó khăn. Nếu J chức năng (c) là khả vi, nó cực trị (tức là tối đa hoặc tối thiểu) có thể thu được các giá trị của vector tham số c = (c1, c2, ..., cN) khi các đạo hàm riêng ∂ J (c ) / ∂cv, v = 1, 2, ..., N được simultane- ously bằng số không. Đó là ∂ J (c) ∇ J (c) = ∂ J (c), ∂c1 ∂c2, ..., J ∂ (c) ∂cN = 0 (7.4) Các vectơ c = (c1, c2 ,. .., cN) mà ∇ J (c) = 0 được gọi là văn phòng phẩm hoặc số vectơ. Vấn đề là không phải tất cả các vector văn phòng phẩm là tối ưu và chúng không tương ứng với các giải pháp mong muốn, ví dụ, các cực trị mong muốn của các chức năng. Vì vậy, ∇ J (c) = 0 chỉ là một điều kiện cần thiết (Tsypkin, 1971). Các điều kiện đủ có thể được bắt nguồn trong các hình thức của một sự bất bình đẳng dựa trên các yếu tố quyết định có chứa các dẫn xuất một phần của lệnh thứ hai của các chức năng liên quan đến c = (c1, c2, ..., cN) với. Tuy nhiên, nó không phải là đáng làm, ngay cả trong trường hợp các nỗ lực tính toán không phải là lớn. Nếu chỉ có một cực trị, các vector văn phòng tương ứng với tối đa hoặc tối thiểu có thể được tìm thấy từ các điều kiện vật chất của vấn đề. Các điều kiện tối ưu xác định chỉ có cực trị địa phương. Việc tìm kiếm các cực trị toàn cầu trở nên vô cùng khó khăn khi số lượng các cực trị như vậy là lớn. Đã có những phương pháp khác nhau cho việc tìm kiếm các giá trị tối ưu duy nhất của vector c *. Kỹ thuật tối ưu Gradient dựa trên sử dụng thông tin phái sinh trong việc xác định tìm kiếm hướng. Trong số các kỹ thuật dựa trên gradient, các phương pháp gốc dốc và Newton của phương pháp đều nổi tiếng. Conjugate Gradient, Gauss-Newton và Levenberg-Marquardt được nổi tiếng biến thể của phương pháp này. Không có gì đảm bảo rằng một người gốc dựa trên gradient thuật toán sẽ tìm thấy những tối ưu toàn cục của hàm mục tiêu phức tạp trong một thời gian hữu hạn. Tất cả các phương pháp gốc là xác định, đòi hỏi các điểm ban đầu được lựa chọn ngẫu nhiên, trong đó có một ảnh hưởng quyết định kết quả cuối cùng . Nếu các điểm ban đầu sẽ được chọn ngẫu nhiên, sau đó tiếp cận phải là ngẫu nhiên trong tự nhiên hoặc phái sinh miễn phí. Nếu các tiêu chí tối ưu J (c) và phân phối của nó được biết đến, các phương pháp tiếp cận cho opti- mization là để được gọi là bình thường. Có tồn tại nhiều cách tiếp cận thông thường và họ chủ yếu là phương pháp phân tích và thuật toán. Những phương pháp này rất thích hợp cho vấn đề đơn giản của đầu và lệnh thứ hai. Xấp xỉ được sử dụng cho các vấn đề trật tự cao. Phương pháp thuật toán dường như không phải là rất hứa hẹn đối với các loại vấn đề. Mặt khác, nếu phân phối là không biết đến hoặc không đủ một thông tin tiên nghiệm có sẵn, sau đó một cách tiếp cận thích ứng được sử dụng để tối ưu hóa. Trong cách tiếp cận thích ứng, thông tin hiện đang tích cực sử dụng để bù đắp sự thiếu một thông tin tiên nghiệm. Khi một quá trình là không rõ (ví dụ, khi nó không chắc chắn rằng liệu quá trình này là xác định hoặc ngẫu nhiên), một cách tiếp cận thích ứng cũng được áp dụng. Các cách tiếp cận thích ứng là chủ yếu là một
đang được dịch, vui lòng đợi..
