Đó là vẫn còn một tham số mà có thể được điều chỉnh để cân bằng giữa tỷ lệ phát hiện và mức báo động giả: lớp nhãn dự báo yˆ(x) = dấu hiệu [HM (x)] thu được bằng thresholding classifier HM (x) mạnh mẽ tại ngưỡng giá trị mặc định 0. Tuy nhiên, nó có thể được thực hiện như yˆ(x) = dấu hiệu [HM (x) − TM] với một giá trị TM, mà có thể được điều chỉnh cho số dư. Các hình thức của Eq.(6) là cho AdaBoost rời rạc. Trong trường hợp của các phiên bản thực tế của AdaBoost, chẳng hạn như RealBoost và LogitBoost, một classifier yếu nên được giá trị thực hoặc đầu ra nhãn lớp với một giá trị xác suất. Đối với loại giá trị thực, một classifier yếu có thể được xây dựng như tỷ lệ khả năng đăng nhập tính từ histograms giá trị tính năng cho các lớp học hai. (Xem các tài liệu cho biết thêm chi tiết [18, 19, 20]). Cho sau này, nó có thể là một quyết định gốc hoặc cây với giá trị xác suất gắn liền với lá [22].4.3 thúc đẩy mạnh mẽ ClassifierAdaBoost học một chuỗi các yếu classifiers hm và tăng chúng vào một HM một mạnh mẽ có hiệu quả bằng cách giảm thiểu ràng buộc classification lỗi đạt được bởi HM. Ràng buộc có thể được bắt nguồn như các chức năng mũ mất sau [33]nơi mà tôi là chỉ số cho các ví dụ huấn luyện. AdaBoost xây dựng hm (x) (m = 1,..., M) bởi M −1 giảm thiểu stagewise của Eq.(7). Cung cấp hiện tại HM −1 (x) = m = 1 αm hm (x), và vừa được học yếu classifier hM, tốt nhất kết hợp coefficient αM cho classifier mạnh mẽ mới HM (x) = HM −1 (x) + αM hM (x) giảm thiểu chi phí ΑM = arg min J (HM −1 (x) + αm hM (x)) (8)Minimizer lànơi M là tỷ lệ trọng lỗinơi 1 [C] là 1 nếu C là đúng nhưng 0 nếu không.được Cập Nhật theo clasEach ví dụ reweighted sau khi lặp đi lặp lại một ví dụ, wisification các hiệu suất của HM:w (M) (x, y) = w (M −1) (x, y) exp (−yαM hM (x))= exp (−yHM (x))được sử dụng để tính toán trọng lỗi hoặc các chi phí khác cho việc đào tạo classifier yếu trong vòng tiếp theo. Bằng cách này, một ví dụ difficult thêm được kết hợp với một trọng lượng lớn hơn vì vậy nó được nhấn mạnh hơn trong vòng tiếp theo của học tập. Các thuật toán tóm tắt trong hình 2,8.0. (đầu vào)(1) ví dụ đào tạo Z = {(x 1, y1),..., (xN, yN)},nơi N = một + b; trong đó có một ví dụ có yi = + 1và b ví dụ có yi = −1.(2) một số M của yếu classifiers để được kết hợp.1. (khởi tạo)(0)1Đối với những ví dụ với yi = + 1 hoặcWi = 2a(0)1Wi = 2b cho những ví dụ với yi = −1.2. (chuyển tiếp bao gồm)Với m = 1,..., M:(1) chọn hm tối ưu để giảm thiểu lỗi trọng.(2) chọn αm theo Eq. (9).(m)(m)(3) ← Cập Nhật wi wi điểm kinh nghiệm [−yi αm hm (xi)] và (m)bình thường hóa để tôi wi = 1.3. (đầu ra)Classification chức năng: HM (x) như trong Eq.(1).Lớp dự đoán nhãn: yˆ(x) = dấu hiệu [HM (x)].Hình 2,8. Các thuật toán học AdaBoost.4,4 FloatBoost họcAdaBoost cố gắng để tăng độ chính xác của một ensemble yếu classifiers. Thuật toán AdaBoost [9] giải quyết nhiều người trong số các difficulties thực tế của trước đó thúc đẩy các thuật toán. Mỗi classifier yếu được huấn luyện stage-wise để giảm thiểu lỗi thực nghiệm cho một bản phát hành nhất định reweighted theo lỗi classification của classifiers được đào tạo trước đây. Chúng tôi hiển thị rằng AdaBoost là một thủ tục tuần tự tìm kiếm về phía trước bằng cách sử dụng các chiến lược tham lam lựa chọn để giảm thiểu một biên độ nhất định trên các thiết lập đào tạo [33].Một giả định heuristic rất quan trọng được sử dụng trong một thủ tục tuần tự tìm chuyển tiếp là monotonicity (tức là, rằng bổ sung của một classifier yếu mới để thiết lập hiện tại không làm giảm giá trị của các tiêu chí hiệu suất). Những tiền đề được cung cấp bởi các thủ tục tuần tự trong AdaBoost vi phạm xuống khi giả định này là vi phạm (ví dụ, khi các chức năng tiêu chuẩn hiệu suất là nonmonotonic).Nổi tìm [30] là một thủ tục lựa chọn tính năng tuần tự với backtracking, nhằm mục đích để đối phó với các hàm nonmonotonic tiêu chí để lựa chọn tính năng. Một phương pháp thẳng tuần tự lựa chọn chẳng hạn như tuần tự tìm kiếm về phía trước hoặc tuần tự ngược tìm thêm hoặc xoá một tính năng tại một thời điểm. Để làm cho công việc này tốt, bất động sản monotonicity đã là satisfied bởi các chức năng tiêu chuẩn hiệu suất. Lựa chọn tính năng với một tiêu chí nonmonotonic có thể được xử lý bằng cách sử dụng một kỹ thuật phức tạp hơn, được gọi là plus - - trừ-r, thêm hoặc xóa các tính năng và sau đó backtracks r bước [16, 40].Phương pháp tìm (SFFS) tuần tự chuyển tiếp floating [30] cho phép số backtracking bước phải được kiểm soát thay vì là fixed trước. Specifically, nó cho biết thêm hoặc xóa một đĩa đơn (= 1) tính năng và sau đó backtracks r bước, nơi phụ thuộc vào tình hình hiện tại. Nó là này flexibility vượt qua những hạn chế do vấn đề nonmonotonicity. Cải tiến chất lượng của tính năng đã chọn được thực hiện với chi phí của các tính toán tăng do việc tìm kiếm mở rộng. Thuật toán SFFS thực hiện tốt trong một số ứng dụng [15, 30]. Ý tưởng của floating tìm tiếp tục được phát triển bằng cách cho phép thêm flexibility cho việc xác định l [39].Hãy để HM = {h1,..., hM} là Tập M yếu classifiers, hiện tại, J (HM) là min tiêu chí là rằng các biện pháp chi phí tổng thể (ví dụ, tỷ lệ lỗi) classification chức năng HM, và Jm tối thiểu chi phí đạt được cho đến nay với một tổ hợp tuyến tính của m yếu classifiers có giá trị ban đầu được thiết lập để rất lớn trước khi lặp bắt đầu. Thủ tục FloatBoost học tập được thể hiện trong hình 2.9. Nó bao gồm một số bộ phận: đầu vào đào tạo, khởi tạo, bao gồm chuyển tiếp, có điều kiện loại trừ, và đầu ra. Trong bước 2 (phía trước bao gồm), hiện nay hầu hết significant yếu classifiers được thêm vào một lúc một thời gian, mà là giống như trong AdaBoost. Trong bước 3 (có điều kiện loại trừ), FloatBoost loại bỏ classifier ít nhất significant yếu từ HM classifiers yếu hiện tại, tùy thuộc vào các điều kiện loại bỏ dẫn đến một chi phí thấp hơn JM −1, thiết lập. Giả sử rằng yếu classifier loại bỏ là m -th trong HM, sau đó hm,..., hM −1 và của αm phải được relearned. Các bước này được lặp đi lặp lại cho đến khi không gỡ bỏ thêm có thể được thực hiện.Để phát hiện khuôn mặt, chấp nhận được chi phí J ∗ là nguy cơ cho phép tối đa có thể là defined như là một khoản tiền trọng của tỷ lệ mất tích và mức báo động giả. Các thuật toán chấm dứt khi chi phí là dưới đây J ∗ hoặc đạt đến số tối đa M yếu classifiers. FloatBoost thường cần một ít số lượng yếu classifiers hơn AdaBoost để đạt được một mục tiêu nhất định chức năng giá trị J ∗. Dựa trên quan sát này, có hai lựa chọn: sử dụng (1) 0. (đầu vào)(1) ví dụ đào tạo Z = {(x 1, y1),..., (xN, yN)},nơi N = một + b; trong đó có một ví dụYi = + 1 và b ví dụ có yi = −1.(2) Mmax số tối đa của yếu classifiers.(3) các chức năng chi phí J (HM), và tối đa chấp nhận được chi phí J ∗.1. (khởi tạo)(0)1Đối với những ví dụ với yi = + 1 hoặc(1) wi = 2a(0)1Wi = 2b cho những ví dụ với yi = −1.Min(2) Jm= giá trị tối đa (cho m = 1,..., Mmax),M = 0, H0 = {}.2. (chuyển tiếp bao gồm)(1) M ← M + 1.(2) tìm hiểu hM và αM.(M)(M −1)(3) Cập Nhật wi←wđiểm kinh nghiệm [−yi αM hM (xi)], tôi (M)= 1.bình thường hóa để tôi wi(4) HM = HM −1 u {hM};MinMinNếu JM> J (HM), sau đó JM= J (HM).3. (có điều kiện loại trừ)(1) h = arg minh∈HM J (HM − h).Min(2) nếu J (HM − h) < JM−1, sau đó(a) HM −1 = HM − h.MinJM−1 = J (HM − h); M = M − 1.(b) nếu h = hm, sau đó(j)tính toán lại wi và hj cho j = m,..., M.(c) đi đến 3.(1).Else (3)(a) nếu M = Mmax hoặc J (HM) < J ∗, sau đó đi đến 4.(b) đi đến 2.(1).4. (đầu ra)Classification chức năng: HM (x) như trong Eq.(1).Lớp dự đoán nhãn: yˆ(x) = dấu hiệu [HM (x)].Hình 2.9. Thuật toán FloatBoost.FloatBoost đào tạo mạnh mẽ classifier với yếu classifiers của nó ít hơn để đạt được hiệu suất tương tự, như có thể được thực hiện bởi một huấn luyện AdaBoost classifier với thêm yếu classifiers; (2) tiếp tục FloatBoost học tập để thêm thêm yếu classifiers ngay cả khi hiệu suất trên dữ liệu đào tạo không tăng. Lý do để xem xét lựa chọn (2) là rằng ngay cả khi hiệu suất không cải thiện trên dữ liệu đào tạo, thêm thêm yếu classifiers có thể dẫn đến cải tiến trên thử nghiệm dữ liệu [33]; Tuy nhiên, cách tốt nhất để xác định bao nhiêu classifiers yếu để sử dụng cho FloatBoost, AdaBoost, là sử dụng một xác nhận thiết lập để tạo ra một đường cong hiệu suất và sau đó chọn một số tốt nhất.
đang được dịch, vui lòng đợi..