Phương pháp nhân đấu LagrangeS. Sawyer-23 tháng 7 năm 20041. định lý Lagrange. Giả sử rằng chúng tôi muốn tối đa hóa (hoặc giảm thiểu) một chức năng của n biến sốf (x) = f(x1,x2,...,xn) tùy thuộc vào ràng buộc p đối với x = (x 1, x 2,..., xn) (1.1A) G1(x) = c1, g2(x) = c2,Như là một ví dụ cho p = 1, tìm..., và gp(x) = cp (1.1b)(XN Min x2ix 1,..., xntôi = 1hoặc n = 2) Xn: xi = 1tôi = 1((1.2A) x 1 + 2 x 2 + x 3 = 1 và tùy thuộc vào (1.2B)x 3 − 2 x 4 + x 5 = 6Đầu tiên đoán cho (1.1) (với trong (1,2)) có thể là để tìm kiếm các giải pháp của các phương trình n , 1 ≤ tôi ≤ n (1.3)Tuy nhiên, điều này dẫn đến xi = 0 trong (1,2), mà không đáp ứng bất kỳ của những hạn chế.Lagrange giải pháp là để giới thiệu p tham số mới (được gọi là hệ số Lagrange) và sau đó giải quyết một vấn đề phức tạp hơn:Định lý (Lagrange) giả sử điều kiện thích hợp êm ái, tối thiểu hoặc tối đa của f (x) tùy thuộc vào các khó khăn (1.1b) mà không ranh giới của khu vực nơi f (x) và gj(x) được định nghĩa có thể được tìm thấy bằng cách giới thiệu p mới tham số λ1, λ2,..., λp và giải quyết hệ thống , 1 ≤ tôi ≤ n (1.4a)(1.4b)Số tiền này để giải quyết n + p phương trình cho các n + p bất biến trong x và λ. Ngược lại, (1.3) có n phương trình cho các ẩn số n trong x. may mắn thay, Hệ thống (1.4) thường là dễ dàng để giải quyết, và thường dễ dàng hơn nhiều so với sử dụng các khó khăn để thay thế cho một số xi.2. ví dụ. (1) có là p = 1 khó khăn ở (1.2A), do đó, sẽ trở thành (1.4a) , 1 ≤ tôi ≤ n = 1. Do đó xi = −λ/2 với 1 ≤ tôi ≤ n và do đó −nλ/2 = 1. Chúng tôi kết luận λ = −2/n, từ đó nó sau đó xi = 1/n với 1 ≤ tôi ≤ n.Nhất xi = 1/n, f (x) = n/n2 = 1/n. Một có thể kiểm tra rằng điều này là tối thiểu như trái ngược với nhiệt độ tối đa hoặc yên bằng cách ghi nhận rằng f (x) = 1 nếu x 1 = 1, xi = 0 cho 2 ≤ tôi ≤ n.(2) một hệ thống với hai hạn chế: có là p = 2 khó khăn ở (1.2B), mà là để tìm 5 ½ x 1 + 2 x 2 + x 3 = 1 và tùy thuộc vào (2,1)x 3 − 2 x 4 + x 5 = 6Phương pháp Lagrange nhân nói để tìm kiếm các giải pháp của = 0 (2,2)nơi mà chúng tôi viết λ, μ cho hai Lagrange hệ số λ1, λ2.Phương trình (2,2) ngụ ý 2 x 1 + λ = 0, 2 x 2 + 2λ = 0, 2 x 3 + λ + μ = 0, 2 x 4 − 2µ = 0, và 2 x 5 + μ = 0. Kết hợp các phương trình đầu tiên ba với các hạn chế đầu tiên trong (2,1) ngụ ý 2 + 6λ + μ = 0. Kết hợp các phương trình cuối ba trong (2,2) với các hạn chế thứ hai ở (2,1) ngụ ý 12 + λ + 6µ = 0. Do đó6Λ + Μ = −2 Λ + 6Μ = −12Thêm các phương trình hai ngụ ý 7 (λ + µ) = −14 hoặc λ + μ = −2. Trừ đi các phương trình ngụ ý 5 (λ − µ) = 10 hoặc λ − µ = 2. Do đó (λ + µ) + (λ − µ) = 2λ = 0 và λ = 0, μ = −2. Điều này ngụ ý x 1 = x 2 = 0, x 3 = x 5 = 1, và x 4 = −2. Giá trị tối thiểu trong (2,1) là 6.(3) một vấn đề màu xanh: giả sử X 1,..., Xn là biến ngẫu nhiên độc lậpvới E(Xi) = μ và Var(Xi) = σi2. Tìm ai hệ số giảm thiểu!chủ đề to(2.3)Điều này đòi hỏi chúng ta để tìm các ước tính không thiên vị tuyến tính tốt nhất (viết tắt là BLUE) cho µ cho đưa ra giá trị của σi2.Kể từ khi Var(aX) = a2 Var(X) và Var (X + Y) = Var(X) + Var (Y) cho độc lập các biến ngẫu nhiên X và Y, chúng tôi có Var (. Do đó (2,3) là tương đương với việc tìm kiếm tùy thuộc vào Bằng cách sử dụng một Lagrange nhân λ cho các hạn chế dẫn đến phương trình 2aiσi2 + λ = 0 hoặc ai = −λ/(2σi2). Các hạn chế = 1 sau đó ngụ ý rằng màu xanh cho µ là nơi ai = c/σi2 cho) (2,4)Nếu σi2 = σ2 cho tất cả các i, thì ai = 1/n và là màu xanh cho µ.Ngược lại, nếu Var(Xi) = σi2 là biến, sau đó màu xanh cho µ đặt trọng lượng tương đối ít hơn trên các quan sát (cao phương sai) noisier (có nghĩa là, ai trọng lượng nhỏ hơn), nhưng vẫn còn sử dụng các thông tin trong các quan sát noiser. Công thức như (2,4) thường được sử dụng trong cuộc khảo sát lấy mẫu.3. một chứng minh định lý Lagrange ngắn. Điều kiện game (1.3) (mà không có bất kỳ khó khăn) có thể được viết bằng véc tơ hình thức như = 0 (3.1)Theo định lý của Taylor f (x + hy) = f (x) + hy • ∇f(x) + O(h2) (3.2)Nếu h là một vô hướng, O(h2) biểu thị điều khoản đó được bao bọc bởi h2, và x•y là sản phẩm dot. Do đó (3.1) cho sự hướng dẫn véc tơ trong đó f (x) thay đổi nhiều nhất cho mỗi đơn vị thay đổi trong x, mà thay đổi đơn vị đo về chiều dài của vector x.Trong cụ thể, keå caû y = ∇f(x0) = 06, sau đó f (x 0 − hy) < f(x0) < f (x 0 + hy)Đối với các giá trị đủ nhỏ của h, và cách duy nhất mà x 0 có thể là một địa phương tối thiểu hoặc tối đa sẽ là nếu x 0 trên ranh giới của các thiết lập của điểm nơi f (x) được định nghĩa. Điều này ngụ ý rằng ∇f(x0) = 0 tại Phòng Không ranh giới tối thiểu và tối đa giá trị của f (x).Bây giờ hãy xem xét vấn đề của việc tìm kiếm maxf(x) tùy thuộc vào g(x) = c (3,3)cho một hạn chế. Nếu x = x1(t) là một con đường ở bề mặt được xác định bởi g(x) = c, sau đó theo quy tắc Chuỗi = 0 (3,4) ¡ ¢Điều này ngụ ý rằng x1(0) ∇g là vuông góc để véc tơ ốp (d/dt)x1(0) cho bất kỳ con đường x1(t) ở bề mặt được xác định bởi g(x) = c.Ngược lại, nếu x 0 là bất kỳ điểm nào trong bề mặt g(x) = c và y là bất kỳ vector như vậy đó y•∇g(x0) = 0, thì nó theo định lý chức năng Implicit có tồn tại một đường dẫn x1(t) trong g(x) bề mặt = c như vậy đó x1(0) = x 0 và (d/dt)x1(0) = y. Kết quả này và (3,4) ngụ ý rằng ∇g(x0) gradient vector là luôn luôn trực giao với bề mặt được xác định bởi g(x) = c tại x 0.Bây giờ để x 0 là một giải pháp (3,3). Tôi yêu cầu bồi thường đó ∇f(x0) = λ∇g(x0) cho một số λ vô hướng. Trước tiên, chúng tôi luôn luôn có thể viết ∇f(x0) = c∇g(x0) + y nơi y•∇g(x0) = 0. Nếu x(t) là một con đường ở bề mặt với x(0) = x 0 và (d/dt) x (0) • ∇f(x0) = 06, nó sau từ (3.2) với y = (d/dt)x(0) rằng có giá trị cho f (x) cho x = x(t) ở bề mặt mà cả lớn hơn và nhỏ hơn f(x0).Vì vậy, nếu x 0 là một tối đa là tối thiểu của f (x) bề mặt và ∇f(x0) = c∇g (x 0) + y cho y•∇g(x0) = 0, sau đó y•∇f(x0) = y•∇g (x 0) + y•y = y • y = 0 và y = 0. Điều này có nghĩa rằng ∇f(x0) = c∇g(x0), hoàn tất chứng minh định lý Lagrange cho một hạn chế (p = 1).Tiếp theo, giả sử rằng chúng tôi muốn giải quyết maxf(x) tùy thuộc vào g1(x) = c1,..., gp(x) = cp (3.5)cho p ràng buộc. Cho x 0 là một giải pháp (3,5). Nhớ lại rằng ∇gj(x0) vector mỗi là vuông góc để bề mặt gj(x) = cj tại x 0. Giả sử L là không gian tuyến tínhL = span{∇gj(x0): 1 ≤ p ≤ j}Tôi yêu cầu bồi thường đó ∈ ∇f(x0) L. Điều này sẽ ngụ ýXP ∇f(x0) = λj∇gj(x0)j = 1Đối với một số sự lựa chọn của các giá trị vô hướng λj, mà sẽ chứng minh định lý Lagrange.Để chứng minh rằng ∈ ∇f(x0) L, lần đầu tiên lưu ý rằng, nói chung, chúng tôi có thể viết ∇f(x0) = w + y nơi w ∈ L và y là vuông góc với L, có nghĩa là rằng y•z = 0 cho bất kỳ ∈ z L. Trong cụ thể, y•∇gj(x0) = 0 cho 1 ≤ j ≤ p. Bây giờ tìm thấy một đường dẫn x1(t) thông qua x 0 ở giao điểm của bề mặt gj(x) = cj như vậy đó x1(0) = x 0 và (d/dt)x1(0) = y. (sự tồn tại của một con đường cho đủ nhỏ t sau một dạng mạnh hơn của định lý chức năng Implicit.) Nó sau đó sau từ (3.2) và (3.5) rằng •∇f(x0) y = 0. Kể từ khi ∇f(x0) = w + y nơi y•w = 0, nó sau đó y•∇f(x0) = y•w + y•y = y•y = 0 và y = 0, điều này ngụ ý rằng ∇f(x0) = w ∈ L, các chứng minh định lý Lagrange đã hoàn tất.4. Warnings. The same warnings apply here as for most methods for finding a maximum or minimum:The system (1.4) does not look for a maximum (or minimum) of f(x) subject to constraints gj(x) = cj, but only a point x on the set of values determined by gj(x) = cj whose first-order changes in x are zero. This is satisfied by a value x = x0 that provides a minimum or maximum typical for f(x) in a neighborhood of x0, but may only be a local minimum or maximum. There may be several local minima or maxima, each yielding a solution of (1.4). The criterion (1.4) also holds for “saddle points” of f(x) that are local maxima in some directions or coordinates and local minima in others. In these cases, the different values f(x) at the solutions of (1.4) have to be evaluated individually to find the global maximum.A particular situation to avoid is to look for a maximum value of f(x) by solving (1.4) or (1.3) when f(x) takes arbitrarily large values when any of the components of x are large (as is the case for f(x) in (1.2)) and (1.4) has a unique solution x0. In that case, x0 is probably the global minimum of f(x) subject to the constraints, and not a maximum. In that case, rather than find the best possible value of f(x), one may end up with the worst possible value. After solving (1.3) or (1.4), one often has to look at the problem more carefully to see if it is a global maximum, a global minimum, or neither.Another situation to avoid is when the maximum or minimum is on the boundary of the values for which f(x) is defined. In that case, the maximum or minimum is not an interior value, and the first-order changes in f(x) (that is, the partial derivatives of f(x)) may not be zero at that point. An example is f(x) = x on the unit interval 0 ≤ x ≤ 1. The minimum value of f(x) = x on the interval is x = 0 and the maximum is x = 1, but neither are solutions of f0(x) = 0.
đang được dịch, vui lòng đợi..
