Fig. 2.15. Merging multiple detections.7 Performance EvaluationThe res dịch - Fig. 2.15. Merging multiple detections.7 Performance EvaluationThe res Việt làm thế nào để nói

Fig. 2.15. Merging multiple detecti

Fig. 2.15. Merging multiple detections.
7 Performance Evaluation
The result of face detection from an image is affected by the two basic components: the face/nonface classifier and the postprocessing (merger). To understand how the system works, it is recommended that the two components be evaluateed separately [1], with two types of test data. The first consists of face icons of a fixed size (as are used for training). This process aims to evaluate the performance of the face/nonface classifier (preprocessing included), without being affected by merging. The second type of test data consists of normal images. In this case, the face detection results are affected by both trained classifier and merging; the overall system performance is evaluated.

Fig. 2.16. Results of frontal face detection.
7.1 Performance Measures
The face detection performance is primarily measured by two rates: the correct detection rate (which is 1 minus the miss detection rate) and the false alarm rate. The performance can be observed by plotting on the receiver operating characteristic ROC curves. Figure 2.18 shows a typical ROC curve for face detection. An ideal face detection system should have a detection rate of 100%, with a false alarm rate of 0, though none of the current systems can achieve this generally. In practical systems, increasing the detection rate is usually accompanied by an increase in the false alarm rate. In the case where a confidence function is used to distinguish between the face and nonface subwindows, with the high output value indicating the detection of face and low value nonface, a trade-off between the two rates can be made by adjusting the decisional threshold. In the case of the AdaBoost learning method, the threshold for Eq.(1) is learned from the training face icons and bootstrapped nonface icons, so a specified rate (usually the false alarm rate) is under control for the training set. Remember that performance numbers of a system are always with respect to the data sets used (the reader is referred to Chapter 13 for face detection databases); two algorithms or systems cannot be compared directly unless the same data sets are used.

Fig. 2.17. Results of multiview face detection.

Fig. 2.18. Typical ROC curve for face detection.
7.2 Comparison of Boosting-Based Algorithms
As AdaBoost-based methods (with local Haar wavelet features) have so far provided the best face detection solutions in terms of the statistical rates and the speed, the following provides a comparative evaluation on different boosting algorithms (DAB: discrete Adaboost; RAB: real Adaboost; and GAB: gentle Adaboost), different training sets preparations, and different weak classifiers [22]. The results provide empirical references for face detection engineers.
Boosting Algorithms
Three 20-stage cascade classifiers were trained with DAB, RAB, and GAB using the Haar-like feature set of Viola and Jones [46, 47] and stumps as the weak classifiers. It is reported that GAB outperformed the other two boosting algorithms [22]; for instance, at an absolute false alarm rate of 10 on the CMU test set, RAB detected only 75.4% and DAB only 79.5% of all frontal faces, and GAB achieved 82.7% at a rescale factor of 1.1. Also, a smaller rescaling factor of 1.1 for scanning images was beneficial for a high detection rate. For example, at 10 false alarms on the CMU test set, GAB improved from a detection rate of 68.8% to that of 82.7% when the rescaling factor was decreased from 1.2 to 1.1.
Weak Classifiers: Tree versus Stumps
Stumps are the simplest tree type of weak classifiers (WCs) that can be used in discrete AdaBoost. A stump, as in Eq.(6), is a single-node tree that does not allow learning dependence between features. In general, n split nodes are needed to model dependence between n − 1 variables. Table 2.1 compares the CART tree weak classifiers of varying number of nodes in terms of the effectiveness of rejecting nonface subwindows. It is observed that RAB is most effective.
Table 2.1. Average number of features evaluated per nonface subwindow of size 20×20 (Reproduced from Lienhart et al. [22]).
Basic versus Extended Haar-like Features
Two face detection systems were trained: one with the basic Haar-like feature set of Viola and Jones [46, 47], and one with the extended haar-like feature set in which rotated versions of the basic Haar features are added. On average the false alarm rate was about 10% lower for the extended haar-like feature set at comparable hit rates. At the same time the computational complexity was comparable. This suggests that whereas the larger Haar-like feature set makes it more complex in both time and memory in the boosting learning phase, gain is obtained in the detection phase.
Subwindow Size
Different subwindow sizes, ranging from 16 × 16 up to 32 × 32, have been used on face detection. The experiments [22] show that a subwindow size of 20×20 achieves the highest detection rate at an absolute number of false alarms between 5 and 100 on the CMU test set of frontal faces. A subwindow size of 24 × 24 worked better for false alarms fewer than five.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Hình 2.15. Việc sáp nhập nhiều phát hiện.7 hiệu suất đánh giáKết quả của phát hiện khuôn mặt từ một hình ảnh bị ảnh hưởng bởi hai thành phần cơ bản: classifier mặt/nonface và postprocessing (sáp nhập). Để hiểu làm thế nào hệ thống hoạt động, đó khuyến cáo rằng hai thành phần là evaluateed một cách riêng biệt [1], với hai loại dữ liệu thử nghiệm. Chính bao gồm khuôn mặt biểu tượng của một kích thước fixed (như được sử dụng cho đào tạo). Quá trình này nhằm mục đích để đánh giá hiệu suất của classifier mặt/nonface (tiền xử lý bao gồm), mà không bị ảnh hưởng bởi việc sáp nhập. Loại thứ hai của dữ liệu thử nghiệm bao gồm hình ảnh bình thường. Trong trường hợp này, kết quả phát hiện khuôn mặt bị ảnh hưởng bởi classifier được đào tạo và sáp nhập; hiệu suất tổng thể của hệ thống được đánh giá.Hình 2.16. Kết quả của phát hiện khuôn mặt phía trước.7.1 các biện pháp hiệu suấtHiệu suất phát hiện khuôn mặt chủ yếu được đo bằng hai mức giá: mức độ phát hiện chính xác (mà là 1 trừ mức phát hiện Hoa hậu) và mức báo động giả. Hiệu suất có thể được quan sát thấy do âm mưu trên người nhận hoạt động đường cong ROC đặc trưng. Con số 2,18 cho thấy một đường cong ROC điển hình cho phát hiện khuôn mặt. Một hệ thống phát hiện khuôn mặt lý tưởng nên có một tỷ lệ phát hiện 100%, với một tỷ lệ báo động giả 0, mặc dù không ai trong số các hệ thống hiện tại có thể đạt điều này nói chung. Trong các hệ thống thực tế, tăng tỷ lệ phát hiện được thường đi kèm với sự gia tăng mức báo động giả. Trong trường hợp nơi một chức năng confidence được sử dụng để phân biệt giữa mặt và nonface subwindows, với giá trị sản lượng cao chỉ ra phát hiện khuôn mặt và giá trị thấp nonface, một sự đánh đổi giữa hai mức giá có thể được thực hiện bằng cách điều chỉnh ngưỡng decisional. Trong trường hợp của AdaBoost học phương pháp, ngưỡng cho Eq.(1) học được từ đào tạo khuôn mặt biểu tượng và biểu tượng bootstrapped nonface, do đó, một tỷ lệ specified (thường mức báo động giả) là dưới sự kiểm soát cho các thiết lập đào tạo. Hãy nhớ rằng các con số hiệu suất của một hệ thống là luôn luôn đối với các bộ dữ liệu sử dụng (người đọc được gọi chương 13 cho cơ sở dữ liệu phát hiện khuôn mặt); hai thuật toán hoặc hệ thống không thể được so sánh trực tiếp trừ khi các bộ dữ liệu tương tự được sử dụng.Hình 2,17. Kết quả của phát hiện khuôn mặt multiview.Hình 2,18. Đường cong ROC điển hình cho phát hiện khuôn mặt.7.2 so sánh các thuật toán dựa trên thúc đẩyNhư AdaBoost dựa trên phương pháp (với địa phương Haar bề mặt tính năng) đã cho đến nay cung cấp bộ mặt tốt nhất phát hiện các giải pháp về tỷ giá thống kê và tốc độ, sau đây cung cấp một đánh giá so sánh về thuật toán thúc đẩy khác nhau (THOA: Adaboost rời rạc; RAB: thực sự Adaboost; và GAB: nhẹ nhàng Adaboost), khác nhau, đào tạo bộ chuẩn bị, và khác nhau yếu classifiers [22]. Kết quả cung cấp tài liệu tham khảo thực nghiệm cho các kỹ sư phát hiện khuôn mặt. Thúc đẩy các thuật toánBa 20 tầng thác classifiers được đào tạo với THOA, RAB và dông dài bằng cách sử dụng bộ tính năng giống như Haar Viola và Jones [46, 47] và stumps là yếu classifiers. Đây là báo cáo rằng dông dài tốt hơn các hai thúc đẩy các thuật toán khác [22]; Ví dụ, ở mức báo động giả tuyệt đối của 10 ngày CMU kiểm tra thiết lập, RAB phát hiện chỉ 75.4% và THOA chỉ 79.5% của tất cả các khuôn mặt phía trước, và đạt được GAB 82.7% tại một yếu tố rescale 1,1. Ngoài ra, một yếu tố nhỏ hơn rescaling 1,1 để quét hình ảnh là beneficial cho một tỷ lệ phát hiện cao. Ví dụ, tại 10 báo động sai ngày thử nghiệm CMU thiết lập, GAB cải thiện từ một tỷ lệ phát hiện 68.8% của 82.7% khi các yếu tố rescaling được giảm từ 1.2 để 1.1.Yếu Classifiers: Cây so với StumpsStumps là loại cây đơn giản nhất của yếu classifiers (WCs) có thể được sử dụng trong AdaBoost rời rạc. Một gốc, như trong Eq.(6), là một cây duy nhất-nút mà không cho phép học phụ thuộc giữa các tính năng. Nói chung, n tách nút là cần thiết để mô hình phụ thuộc giữa n − 1 biến. 2.1 bảng so sánh giỏ hàng cây yếu classifiers số khác nhau của các nút trong điều khoản của hiệu quả của từ chối nonface subwindows. Nó được quan sát thấy rằng RAB là hiệu quả nhất.2.1 bảng. Số trung bình tính năng đánh giá cho nonface subwindow của kích thước 20 × 20 (Reproduced từ Lienhart et al. [22]).Cơ bản so với mở rộng các tính năng giống như HaarHai khuôn mặt phát hiện hệ thống đã được huấn luyện: một với các thiết lập tính năng cơ bản giống như Haar Viola và Jones [46, 47], và một với các tính năng giống như haar mở rộng nằm trong đó xoay Phiên bản tính năng Haar cơ bản được bổ sung. Trung bình, mức báo động giả là khoảng 10% thấp hơn cho các tính năng giống như haar mở rộng thiết lập mức giá so sánh hit. Cùng một lúc sự phức tạp tính toán được so sánh. Điều này cho thấy rằng trong khi thiết lập các tính năng giống như Haar lớn hơn làm cho nó phức tạp hơn trong thời gian và bộ nhớ trong thúc đẩy học tập giai đoạn, đạt được thu được trong giai đoạn phát hiện.Subwindow kích thướcKích thước khác nhau subwindow, khác nhau, từ 16 × 16 lên đến 32 × 32, đã được sử dụng trên phát hiện khuôn mặt. Thí nghiệm [22] Hiển thị kích thước subwindow 20 × 20 đạt được tỷ lệ phát hiện cao nhất tại một số lượng tuyệt đối của báo động sai từ 5 đến 100 trên các thiết lập thử nghiệm CMU của phía trước khuôn mặt. Subwindow kích thước 24 x 24 làm việc tốt hơn cho báo động sai ít hơn five.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Fig. 2.15. Merging multiple detections.
7 Performance Evaluation
The result of face detection from an image is affected by the two basic components: the face/nonface classifier and the postprocessing (merger). To understand how the system works, it is recommended that the two components be evaluateed separately [1], with two types of test data. The first consists of face icons of a fixed size (as are used for training). This process aims to evaluate the performance of the face/nonface classifier (preprocessing included), without being affected by merging. The second type of test data consists of normal images. In this case, the face detection results are affected by both trained classifier and merging; the overall system performance is evaluated.

Fig. 2.16. Results of frontal face detection.
7.1 Performance Measures
The face detection performance is primarily measured by two rates: the correct detection rate (which is 1 minus the miss detection rate) and the false alarm rate. The performance can be observed by plotting on the receiver operating characteristic ROC curves. Figure 2.18 shows a typical ROC curve for face detection. An ideal face detection system should have a detection rate of 100%, with a false alarm rate of 0, though none of the current systems can achieve this generally. In practical systems, increasing the detection rate is usually accompanied by an increase in the false alarm rate. In the case where a confidence function is used to distinguish between the face and nonface subwindows, with the high output value indicating the detection of face and low value nonface, a trade-off between the two rates can be made by adjusting the decisional threshold. In the case of the AdaBoost learning method, the threshold for Eq.(1) is learned from the training face icons and bootstrapped nonface icons, so a specified rate (usually the false alarm rate) is under control for the training set. Remember that performance numbers of a system are always with respect to the data sets used (the reader is referred to Chapter 13 for face detection databases); two algorithms or systems cannot be compared directly unless the same data sets are used.

Fig. 2.17. Results of multiview face detection.

Fig. 2.18. Typical ROC curve for face detection.
7.2 Comparison of Boosting-Based Algorithms
As AdaBoost-based methods (with local Haar wavelet features) have so far provided the best face detection solutions in terms of the statistical rates and the speed, the following provides a comparative evaluation on different boosting algorithms (DAB: discrete Adaboost; RAB: real Adaboost; and GAB: gentle Adaboost), different training sets preparations, and different weak classifiers [22]. The results provide empirical references for face detection engineers.
Boosting Algorithms
Three 20-stage cascade classifiers were trained with DAB, RAB, and GAB using the Haar-like feature set of Viola and Jones [46, 47] and stumps as the weak classifiers. It is reported that GAB outperformed the other two boosting algorithms [22]; for instance, at an absolute false alarm rate of 10 on the CMU test set, RAB detected only 75.4% and DAB only 79.5% of all frontal faces, and GAB achieved 82.7% at a rescale factor of 1.1. Also, a smaller rescaling factor of 1.1 for scanning images was beneficial for a high detection rate. For example, at 10 false alarms on the CMU test set, GAB improved from a detection rate of 68.8% to that of 82.7% when the rescaling factor was decreased from 1.2 to 1.1.
Weak Classifiers: Tree versus Stumps
Stumps are the simplest tree type of weak classifiers (WCs) that can be used in discrete AdaBoost. A stump, as in Eq.(6), is a single-node tree that does not allow learning dependence between features. In general, n split nodes are needed to model dependence between n − 1 variables. Table 2.1 compares the CART tree weak classifiers of varying number of nodes in terms of the effectiveness of rejecting nonface subwindows. It is observed that RAB is most effective.
Table 2.1. Average number of features evaluated per nonface subwindow of size 20×20 (Reproduced from Lienhart et al. [22]).
Basic versus Extended Haar-like Features
Two face detection systems were trained: one with the basic Haar-like feature set of Viola and Jones [46, 47], and one with the extended haar-like feature set in which rotated versions of the basic Haar features are added. On average the false alarm rate was about 10% lower for the extended haar-like feature set at comparable hit rates. At the same time the computational complexity was comparable. This suggests that whereas the larger Haar-like feature set makes it more complex in both time and memory in the boosting learning phase, gain is obtained in the detection phase.
Subwindow Size
Different subwindow sizes, ranging from 16 × 16 up to 32 × 32, have been used on face detection. The experiments [22] show that a subwindow size of 20×20 achieves the highest detection rate at an absolute number of false alarms between 5 and 100 on the CMU test set of frontal faces. A subwindow size of 24 × 24 worked better for false alarms fewer than five.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: