Fig. 2.15. Merging multiple detections.7 Performance EvaluationThe res dịch - Fig. 2.15. Merging multiple detections.7 Performance EvaluationThe res Việt làm thế nào để nói

Fig. 2.15. Merging multiple detecti

Fig. 2.15. Merging multiple detections.
7 Performance Evaluation
The result of face detection from an image is affected by the two basic components: the face/nonface classifier and the postprocessing (merger). To understand how the system works, it is recommended that the two components be evaluateed separately [1], with two types of test data. The first consists of face icons of a fixed size (as are used for training). This process aims to evaluate the performance of the face/nonface classifier (preprocessing included), without being affected by merging. The second type of test data consists of normal images. In this case, the face detection results are affected by both trained classifier and merging; the overall system performance is evaluated.

Fig. 2.16. Results of frontal face detection.
7.1 Performance Measures
The face detection performance is primarily measured by two rates: the correct detection rate (which is 1 minus the miss detection rate) and the false alarm rate. The performance can be observed by plotting on the receiver operating characteristic ROC curves. Figure 2.18 shows a typical ROC curve for face detection. An ideal face detection system should have a detection rate of 100%, with a false alarm rate of 0, though none of the current systems can achieve this generally. In practical systems, increasing the detection rate is usually accompanied by an increase in the false alarm rate. In the case where a confidence function is used to distinguish between the face and nonface subwindows, with the high output value indicating the detection of face and low value nonface, a trade-off between the two rates can be made by adjusting the decisional threshold. In the case of the AdaBoost learning method, the threshold for Eq.(1) is learned from the training face icons and bootstrapped nonface icons, so a specified rate (usually the false alarm rate) is under control for the training set. Remember that performance numbers of a system are always with respect to the data sets used (the reader is referred to Chapter 13 for face detection databases); two algorithms or systems cannot be compared directly unless the same data sets are used.

Fig. 2.17. Results of multiview face detection.

Fig. 2.18. Typical ROC curve for face detection.
7.2 Comparison of Boosting-Based Algorithms
As AdaBoost-based methods (with local Haar wavelet features) have so far provided the best face detection solutions in terms of the statistical rates and the speed, the following provides a comparative evaluation on different boosting algorithms (DAB: discrete Adaboost; RAB: real Adaboost; and GAB: gentle Adaboost), different training sets preparations, and different weak classifiers [22]. The results provide empirical references for face detection engineers.
Boosting Algorithms
Three 20-stage cascade classifiers were trained with DAB, RAB, and GAB using the Haar-like feature set of Viola and Jones [46, 47] and stumps as the weak classifiers. It is reported that GAB outperformed the other two boosting algorithms [22]; for instance, at an absolute false alarm rate of 10 on the CMU test set, RAB detected only 75.4% and DAB only 79.5% of all frontal faces, and GAB achieved 82.7% at a rescale factor of 1.1. Also, a smaller rescaling factor of 1.1 for scanning images was beneficial for a high detection rate. For example, at 10 false alarms on the CMU test set, GAB improved from a detection rate of 68.8% to that of 82.7% when the rescaling factor was decreased from 1.2 to 1.1.
Weak Classifiers: Tree versus Stumps
Stumps are the simplest tree type of weak classifiers (WCs) that can be used in discrete AdaBoost. A stump, as in Eq.(6), is a single-node tree that does not allow learning dependence between features. In general, n split nodes are needed to model dependence between n − 1 variables. Table 2.1 compares the CART tree weak classifiers of varying number of nodes in terms of the effectiveness of rejecting nonface subwindows. It is observed that RAB is most effective.
Table 2.1. Average number of features evaluated per nonface subwindow of size 20×20 (Reproduced from Lienhart et al. [22]).
Basic versus Extended Haar-like Features
Two face detection systems were trained: one with the basic Haar-like feature set of Viola and Jones [46, 47], and one with the extended haar-like feature set in which rotated versions of the basic Haar features are added. On average the false alarm rate was about 10% lower for the extended haar-like feature set at comparable hit rates. At the same time the computational complexity was comparable. This suggests that whereas the larger Haar-like feature set makes it more complex in both time and memory in the boosting learning phase, gain is obtained in the detection phase.
Subwindow Size
Different subwindow sizes, ranging from 16 × 16 up to 32 × 32, have been used on face detection. The experiments [22] show that a subwindow size of 20×20 achieves the highest detection rate at an absolute number of false alarms between 5 and 100 on the CMU test set of frontal faces. A subwindow size of 24 × 24 worked better for false alarms fewer than five.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Hình 2.15. Việc sáp nhập nhiều phát hiện.7 hiệu suất đánh giáKết quả của phát hiện khuôn mặt từ một hình ảnh bị ảnh hưởng bởi hai thành phần cơ bản: classifier mặt/nonface và postprocessing (sáp nhập). Để hiểu làm thế nào hệ thống hoạt động, đó khuyến cáo rằng hai thành phần là evaluateed một cách riêng biệt [1], với hai loại dữ liệu thử nghiệm. Chính bao gồm khuôn mặt biểu tượng của một kích thước fixed (như được sử dụng cho đào tạo). Quá trình này nhằm mục đích để đánh giá hiệu suất của classifier mặt/nonface (tiền xử lý bao gồm), mà không bị ảnh hưởng bởi việc sáp nhập. Loại thứ hai của dữ liệu thử nghiệm bao gồm hình ảnh bình thường. Trong trường hợp này, kết quả phát hiện khuôn mặt bị ảnh hưởng bởi classifier được đào tạo và sáp nhập; hiệu suất tổng thể của hệ thống được đánh giá.Hình 2.16. Kết quả của phát hiện khuôn mặt phía trước.7.1 các biện pháp hiệu suấtHiệu suất phát hiện khuôn mặt chủ yếu được đo bằng hai mức giá: mức độ phát hiện chính xác (mà là 1 trừ mức phát hiện Hoa hậu) và mức báo động giả. Hiệu suất có thể được quan sát thấy do âm mưu trên người nhận hoạt động đường cong ROC đặc trưng. Con số 2,18 cho thấy một đường cong ROC điển hình cho phát hiện khuôn mặt. Một hệ thống phát hiện khuôn mặt lý tưởng nên có một tỷ lệ phát hiện 100%, với một tỷ lệ báo động giả 0, mặc dù không ai trong số các hệ thống hiện tại có thể đạt điều này nói chung. Trong các hệ thống thực tế, tăng tỷ lệ phát hiện được thường đi kèm với sự gia tăng mức báo động giả. Trong trường hợp nơi một chức năng confidence được sử dụng để phân biệt giữa mặt và nonface subwindows, với giá trị sản lượng cao chỉ ra phát hiện khuôn mặt và giá trị thấp nonface, một sự đánh đổi giữa hai mức giá có thể được thực hiện bằng cách điều chỉnh ngưỡng decisional. Trong trường hợp của AdaBoost học phương pháp, ngưỡng cho Eq.(1) học được từ đào tạo khuôn mặt biểu tượng và biểu tượng bootstrapped nonface, do đó, một tỷ lệ specified (thường mức báo động giả) là dưới sự kiểm soát cho các thiết lập đào tạo. Hãy nhớ rằng các con số hiệu suất của một hệ thống là luôn luôn đối với các bộ dữ liệu sử dụng (người đọc được gọi chương 13 cho cơ sở dữ liệu phát hiện khuôn mặt); hai thuật toán hoặc hệ thống không thể được so sánh trực tiếp trừ khi các bộ dữ liệu tương tự được sử dụng.Hình 2,17. Kết quả của phát hiện khuôn mặt multiview.Hình 2,18. Đường cong ROC điển hình cho phát hiện khuôn mặt.7.2 so sánh các thuật toán dựa trên thúc đẩyNhư AdaBoost dựa trên phương pháp (với địa phương Haar bề mặt tính năng) đã cho đến nay cung cấp bộ mặt tốt nhất phát hiện các giải pháp về tỷ giá thống kê và tốc độ, sau đây cung cấp một đánh giá so sánh về thuật toán thúc đẩy khác nhau (THOA: Adaboost rời rạc; RAB: thực sự Adaboost; và GAB: nhẹ nhàng Adaboost), khác nhau, đào tạo bộ chuẩn bị, và khác nhau yếu classifiers [22]. Kết quả cung cấp tài liệu tham khảo thực nghiệm cho các kỹ sư phát hiện khuôn mặt. Thúc đẩy các thuật toánBa 20 tầng thác classifiers được đào tạo với THOA, RAB và dông dài bằng cách sử dụng bộ tính năng giống như Haar Viola và Jones [46, 47] và stumps là yếu classifiers. Đây là báo cáo rằng dông dài tốt hơn các hai thúc đẩy các thuật toán khác [22]; Ví dụ, ở mức báo động giả tuyệt đối của 10 ngày CMU kiểm tra thiết lập, RAB phát hiện chỉ 75.4% và THOA chỉ 79.5% của tất cả các khuôn mặt phía trước, và đạt được GAB 82.7% tại một yếu tố rescale 1,1. Ngoài ra, một yếu tố nhỏ hơn rescaling 1,1 để quét hình ảnh là beneficial cho một tỷ lệ phát hiện cao. Ví dụ, tại 10 báo động sai ngày thử nghiệm CMU thiết lập, GAB cải thiện từ một tỷ lệ phát hiện 68.8% của 82.7% khi các yếu tố rescaling được giảm từ 1.2 để 1.1.Yếu Classifiers: Cây so với StumpsStumps là loại cây đơn giản nhất của yếu classifiers (WCs) có thể được sử dụng trong AdaBoost rời rạc. Một gốc, như trong Eq.(6), là một cây duy nhất-nút mà không cho phép học phụ thuộc giữa các tính năng. Nói chung, n tách nút là cần thiết để mô hình phụ thuộc giữa n − 1 biến. 2.1 bảng so sánh giỏ hàng cây yếu classifiers số khác nhau của các nút trong điều khoản của hiệu quả của từ chối nonface subwindows. Nó được quan sát thấy rằng RAB là hiệu quả nhất.2.1 bảng. Số trung bình tính năng đánh giá cho nonface subwindow của kích thước 20 × 20 (Reproduced từ Lienhart et al. [22]).Cơ bản so với mở rộng các tính năng giống như HaarHai khuôn mặt phát hiện hệ thống đã được huấn luyện: một với các thiết lập tính năng cơ bản giống như Haar Viola và Jones [46, 47], và một với các tính năng giống như haar mở rộng nằm trong đó xoay Phiên bản tính năng Haar cơ bản được bổ sung. Trung bình, mức báo động giả là khoảng 10% thấp hơn cho các tính năng giống như haar mở rộng thiết lập mức giá so sánh hit. Cùng một lúc sự phức tạp tính toán được so sánh. Điều này cho thấy rằng trong khi thiết lập các tính năng giống như Haar lớn hơn làm cho nó phức tạp hơn trong thời gian và bộ nhớ trong thúc đẩy học tập giai đoạn, đạt được thu được trong giai đoạn phát hiện.Subwindow kích thướcKích thước khác nhau subwindow, khác nhau, từ 16 × 16 lên đến 32 × 32, đã được sử dụng trên phát hiện khuôn mặt. Thí nghiệm [22] Hiển thị kích thước subwindow 20 × 20 đạt được tỷ lệ phát hiện cao nhất tại một số lượng tuyệt đối của báo động sai từ 5 đến 100 trên các thiết lập thử nghiệm CMU của phía trước khuôn mặt. Subwindow kích thước 24 x 24 làm việc tốt hơn cho báo động sai ít hơn five.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Vả. 2.15. . Cắt nhiều phát hiện
7 Đánh giá thực hiện
Kết quả phát hiện khuôn mặt từ một hình ảnh bị ảnh hưởng bởi hai thành phần cơ bản: mặt / nonface classi fi er và xử lý sau (sáp nhập). Để hiểu làm thế nào hệ thống hoạt động, đó là khuyến cáo rằng hai thành phần được evaluateed riêng [1], với hai loại dữ liệu thử nghiệm. Việc đầu tiên fi bao gồm các biểu tượng khuôn mặt của một kích thước cố định fi (như được sử dụng để đào tạo). Quá trình này nhằm mục đích đánh giá hiệu quả của các khuôn mặt / nonface classi er fi (tiền xử lý bao gồm), mà không bị ảnh hưởng bởi việc sáp nhập. Loại thứ hai của dữ liệu thử nghiệm bao gồm các hình ảnh bình thường. Trong trường hợp này, kết quả phát hiện khuôn mặt bị ảnh hưởng bởi cả hai huấn luyện er fi classi và sáp nhập; hiệu suất của toàn hệ thống được đánh giá. Fig. 2.16. Kết quả phát hiện khuôn mặt phía trước. Các biện pháp 7.1 Hiệu suất Hiệu suất phát hiện khuôn mặt chủ yếu được đo bằng hai mức: tỷ lệ chính xác phát hiện (đó là 1 trừ đi tỷ lệ phát hiện lỡ) và tỷ lệ báo động sai. Hiệu suất có thể được quan sát bằng cách vẽ trên máy thu hoạt động đường cong ROC đặc trưng. Hình 2.18 cho thấy một đường cong ROC điển hình cho nhận diện khuôn mặt. Một hệ thống phát hiện khuôn mặt lý tưởng phải có một tỷ lệ phát hiện 100%, với một tỷ lệ báo động sai lầm về 0, mặc dù không ai trong số các hệ thống hiện tại có thể đạt được điều này nói chung. Trong hệ thống thực tế, tăng tỷ lệ phát hiện là thường đi kèm với sự gia tăng tỷ lệ báo động sai. Trong trường hợp một con chức năng fi dence được sử dụng để phân biệt giữa mặt và nonface subwindows, với giá trị sản lượng cao cho thấy sự phát hiện của khuôn mặt và nonface giá trị thấp, một thương mại-off giữa hai tỷ giá có thể được thực hiện bằng cách điều chỉnh các ngưỡng decisional. Trong trường hợp của các phương pháp học tập AdaBoost, ngưỡng cho Eq. (1) là học được từ các biểu tượng mặt đào tạo và biểu tượng nonface bootstrapped, do đó, một tỷ lệ fi ed đặc hiệu (thường là tỷ lệ báo động giả) là dưới sự kiểm soát đối với các tập huấn luyện. Hãy nhớ rằng con số thực hiện một hệ thống luôn luôn liên quan đến các bộ dữ liệu được sử dụng (người đọc được gọi Chương 13 cho cơ sở dữ liệu nhận diện khuôn mặt) với; Hai thuật toán hoặc hệ thống không thể so sánh trực tiếp trừ khi các bộ dữ liệu tương tự được sử dụng. Hình. 2.17. Kết quả phát hiện MultiView mặt. Fig. 2.18. Đường cong ROC điển hình cho nhận diện khuôn mặt. 7.2 So sánh Boosting-Dựa Algorithms Là phương pháp dựa trên AdaBoost (với tính năng wavelet Haar địa phương) đến nay đã cung cấp các giải pháp phát hiện mặt tốt nhất về tỷ lệ thống kê và tốc độ, sau đây cung cấp một so sánh đánh giá về các thuật toán khác nhau thúc đẩy (DAB: AdaBoost rời rạc; RAB: thực AdaBoost và GAB: nhẹ nhàng AdaBoost), đào tạo khác nhau đặt ra chuẩn bị, và khác nhau yếu ers fi classi [22]. Các kết quả cung cấp tài liệu tham khảo kinh nghiệm đối với các kỹ sư phát hiện khuôn mặt. Boosting Algorithms Ba 20 tầng thác classi ers fi đã được đào tạo với DAB, RAB, và GAB sử dụng các tính năng thiết lập Haar-like của Viola và Jones [46, 47] và gốc cây là những người đối fi classi yếu. Đây là báo cáo rằng GAB vượt trội so với hai thuật toán tăng khác [22]; Ví dụ, với một tốc độ báo động giả tuyệt đối của 10 về kiểm tra thiết lập CMU, RAB phát hiện chỉ 75,4% và DAB chỉ 79,5% của tất cả các khuôn mặt phía trước, và GAB đạt 82,7% ở một yếu tố rescale 1,1. Ngoài ra, một yếu tố rescaling nhỏ hơn 1,1 cho hình ảnh quét là lợi ích tài fi cho một tỷ lệ phát hiện cao. Ví dụ, tại 10 cảnh báo sai về các bài kiểm tra tập CMU, GAB cải thiện từ một tỷ lệ phát hiện 68,8% cho rằng các 82,7% khi các yếu tố rescaling đã giảm 1,2-1,1. Yếu phân loại ers fi: Tree so Gốc Gốc là loại cây đơn giản nhất các yếu ers classi fi (WC) có thể được sử dụng trong AdaBoost rời rạc. Một gốc cây, như trong phương trình. (6), là một cây duy nhất-nút đó không cho phép học phụ thuộc giữa các tính năng. Nói chung, n nút chia là cần thiết để mô hình phụ thuộc giữa các n - 1 biến. Bảng 2.1 so sánh cây Toán yếu ers fi classi của số lượng các nút khác nhau về hiệu quả của việc từ chối subwindows nonface. Nó được quan sát thấy rằng RAB là hiệu quả nhất. Bảng 2.1. (. Sao chép từ Lienhart et al [22]) số trung bình của các tính năng được đánh giá mỗi nonface subwindow kích thước 20 × 20. Mở rộng tính năng cơ bản so với Haar-like Hai hệ thống phát hiện khuôn mặt đã được đào tạo: một với các tính năng Haar-like thiết lập cơ bản của Viola và Jones [46, 47], và một với các tính năng mở rộng như haar-thiết lập trong đó xoay các phiên bản của các tính năng cơ bản Haar được thêm vào. Trung bình tỷ lệ báo động sai là thấp hơn khoảng 10% đối với các tính năng mở rộng như haar-đặt ở thể so sánh tỷ lệ hit. Đồng thời các tính toán phức tạp có thể so sánh. Điều này cho thấy rằng trong khi các tính năng thiết lập Haar-like lớn hơn làm cho nó phức tạp hơn cả về thời gian và bộ nhớ trong giai đoạn đẩy mạnh học tập, tăng thu được trong giai đoạn phát hiện. Subwindow Kích cỡ subwindow khác nhau, dao động từ 16 × 16 đến 32 × 32 , đã được sử dụng vào việc phát hiện khuôn mặt. Các thí nghiệm [22] cho thấy rằng một kích thước subwindow 20 × 20 đạt tỷ lệ phát hiện cao nhất với số lượng tuyệt đối của các báo động sai từ 5 đến 100 trên các kiểm tra bộ khuôn mặt trán CMU. Một kích thước subwindow 24 × 24 làm việc tốt hơn cho các báo động sai ít hơn fi ve.



















đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: