First, we present results on a standard evaluation set, fot both the d dịch - First, we present results on a standard evaluation set, fot both the d Việt làm thế nào để nói

First, we present results on a stan

First, we present results on a standard evaluation set, fot both the detector and the descriptor. Next, we discuss results obtained in a real-life object recognition application. All detectors and descriptors in the comparison are based on the original implementations of authors.
Standard Evaluation We tested our detector and descriptor using the image sequences and testing software provided by Mikolajczyk 3. These are images of real textured and structured scenes. Due to space limitations, we cannot show the results on all sequences. For the detector comparison, we selected the two viewpointchanges(GraffitiandWall),onezoomandrotation(Boat)andlighting changes (Leuven) (see Fig. 6, discussed below). The descriptor evaluations are shown for all sequences except the Bark sequence (see Fig. 4 and 7). For the detectors, we use the repeatability score, as described in [9]. This indicates how many of the detected interest points are found in both images, relative to the lowest total number of interest points found (where only the part of the image that is visible in both images is taken into account). The detector is compared to the difference of Gaussian (DoG) detector by Lowe [2], and the Harris- and Hessian-Laplace detectors proposed by Mikolajczyk [15]. The number of interest points found is on average very similar for all detectors. This holds for all images, including those from the database used in the object recognition experiment, see Table 1 for an example. As can be seen our ’Fast-Hessian’ detector is more than 3 times faster that DoG and 5 times faster than Hessian-Laplace. At the same time, the repeatability for our detector is comparable (Graffiti, Leuven, Boats) or even better (Wall) than for the competitors. Note that the sequences Graffiti and Wall contain out-of-plane rotation, resulting in affine deformations, while the detectors in the comparison are only rotation- and scale invariant. Hence, these deformations have to be tackled by the overall robustness of the features. Thedescriptorsareevaluatedusingrecall-(1-precision)graphs,asin[4]and[8]. For each evaluation, we used the first and the fourth image of the sequence, except for the Graffiti (image 1 and 3) and the Wall scene (image 1 and 5), corresponding to a viewpoint change of 30 and 50 degrees, respectively. In figures4 and7, we comparedour SURF descriptor to GLOH, SIFT and PCA-SIFT, based on interest points detected with our ’Fast-Hessian’ detector. SURF outperformed the other descriptors for almost all the comparisons. In Fig. 4, we compared the results using two different matching techniques, one based on the similarity threshold and one based on the nearest neighbour ratio (see [8] for a discussion on these techniques). This has an effect on the ranking of the descriptors, yet SURF performed best in both cases. Due to space limitations, only results on similarity threshold based matching are shown in Fig. 7, as this technique is better suited to represent the distribution of the descriptor in its feature space [8] and it is in more general use. The SURF descriptor outperforms the other descriptors in a systematic and significant way, with sometimes more than 10% improvement in recall for the same level of precision. At the same time, it is fast to compute (see Table 2). The accurate version (SURF-128), presented in section 4, showed slightly better results than the regular SURF, but is slower to match and therefore less interesting for speed-dependent applications. Note that throughout the paper, including the object recognitionexperiment, we always use the same set of parameters and thresholds (see table 1). The timings were evaluated on a standard Linux PC (Pentium IV, 3GHz).
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Trước tiên, chúng tôi trình bày các kết quả trên một tiêu chuẩn đánh giá tập, fot các máy dò và mô tả. Tiếp theo, chúng tôi thảo luận về kết quả thu được trong một ứng dụng nhận dạng đối tượng thật. Tất cả các thiết bị dò và mô tả trong so sánh được dựa trên việc triển khai ban đầu của tác giả.Standard Evaluation We tested our detector and descriptor using the image sequences and testing software provided by Mikolajczyk 3. These are images of real textured and structured scenes. Due to space limitations, we cannot show the results on all sequences. For the detector comparison, we selected the two viewpointchanges(GraffitiandWall),onezoomandrotation(Boat)andlighting changes (Leuven) (see Fig. 6, discussed below). The descriptor evaluations are shown for all sequences except the Bark sequence (see Fig. 4 and 7). For the detectors, we use the repeatability score, as described in [9]. This indicates how many of the detected interest points are found in both images, relative to the lowest total number of interest points found (where only the part of the image that is visible in both images is taken into account). The detector is compared to the difference of Gaussian (DoG) detector by Lowe [2], and the Harris- and Hessian-Laplace detectors proposed by Mikolajczyk [15]. The number of interest points found is on average very similar for all detectors. This holds for all images, including those from the database used in the object recognition experiment, see Table 1 for an example. As can be seen our ’Fast-Hessian’ detector is more than 3 times faster that DoG and 5 times faster than Hessian-Laplace. At the same time, the repeatability for our detector is comparable (Graffiti, Leuven, Boats) or even better (Wall) than for the competitors. Note that the sequences Graffiti and Wall contain out-of-plane rotation, resulting in affine deformations, while the detectors in the comparison are only rotation- and scale invariant. Hence, these deformations have to be tackled by the overall robustness of the features. Thedescriptorsareevaluatedusingrecall-(1-precision)graphs,asin[4]and[8]. For each evaluation, we used the first and the fourth image of the sequence, except for the Graffiti (image 1 and 3) and the Wall scene (image 1 and 5), corresponding to a viewpoint change of 30 and 50 degrees, respectively. In figures4 and7, we comparedour SURF descriptor to GLOH, SIFT and PCA-SIFT, based on interest points detected with our ’Fast-Hessian’ detector. SURF outperformed the other descriptors for almost all the comparisons. In Fig. 4, we compared the results using two different matching techniques, one based on the similarity threshold and one based on the nearest neighbour ratio (see [8] for a discussion on these techniques). This has an effect on the ranking of the descriptors, yet SURF performed best in both cases. Due to space limitations, only results on similarity threshold based matching are shown in Fig. 7, as this technique is better suited to represent the distribution of the descriptor in its feature space [8] and it is in more general use. The SURF descriptor outperforms the other descriptors in a systematic and significant way, with sometimes more than 10% improvement in recall for the same level of precision. At the same time, it is fast to compute (see Table 2). The accurate version (SURF-128), presented in section 4, showed slightly better results than the regular SURF, but is slower to match and therefore less interesting for speed-dependent applications. Note that throughout the paper, including the object recognitionexperiment, we always use the same set of parameters and thresholds (see table 1). The timings were evaluated on a standard Linux PC (Pentium IV, 3GHz).
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Đầu tiên, chúng tôi trình bày kết quả trên một bộ tiêu chuẩn đánh giá, FOT cả các phát hiện và mô tả. Tiếp theo, chúng tôi thảo luận về kết quả thu được trong một ứng dụng nhận dạng đối tượng thực tế cuộc sống. Tất cả các máy dò và mô tả trong sự so sánh dựa trên việc triển khai ban đầu của tác giả.
Đánh giá Chuẩn Chúng tôi kiểm tra phát hiện và mô tả của chúng tôi bằng cách sử dụng chuỗi ảnh và kiểm thử phần mềm được cung cấp bởi Mikolajczyk 3. Đây là những hình ảnh của kết cấu thực sự và cảnh cấu trúc. Do không gian hạn chế, chúng tôi không thể hiển thị các kết quả trên tất cả các trình tự. Đối với việc so sánh máy phát hiện, chúng tôi đã chọn hai viewpointchanges (Gra ffi tiandWall), onezoomandrotation (Boat) thay đổi andlighting (Leuven) (xem hình. 6, thảo luận dưới đây). Các đánh giá mô tả được hiển thị cho tất cả các trình tự, ngoại trừ dãy Bark (xem hình. 4 và 7). Đối với các máy dò, chúng tôi sử dụng số điểm lặp lại, như được mô tả trong [9]. Điều này cho thấy có bao nhiêu trong những điểm quan tâm phát hiện được tìm thấy trong cả hai hình ảnh, so với tổng số thấp nhất của các điểm quan tâm được tìm thấy (nơi chỉ có một phần của hình ảnh mà có thể nhìn thấy trong cả hai hình ảnh được đưa vào tài khoản). Các máy dò được so sánh với erence di ff của Gaussian (DoG) phát hiện bởi Lowe [2], và các Harris- và Hessian-Laplace dò bởi Mikolajczyk [15] đề xuất. Số lượng các điểm quan tâm tìm thấy là trên trung bình rất giống nhau cho tất cả các máy dò. Điều này giữ cho tất cả các hình ảnh, bao gồm cả những người từ các cơ sở dữ liệu được sử dụng trong các thí nghiệm nhận dạng đối tượng, xem Bảng 1 cho một ví dụ. Như có thể thấy 'Fast-Hessian' dò của chúng tôi là nhanh hơn 3 lần so với Hessian-Laplace rằng DoG và 5 lần. Đồng thời, độ lặp lại cho máy dò của chúng tôi là so sánh (Gra ffi ti, Leuven, Thuyền) hoặc thậm chí tốt hơn (Wall) hơn so với các đối thủ cạnh tranh. Lưu ý rằng các chuỗi Gra ffi ti và Wall chứa out-of-máy bay quay, kết quả là một biến dạng ffi ne, trong khi các máy dò trong việc so sánh chỉ rotation- và quy mô bất biến. Do đó, các biến dạng phải được giải quyết bằng sự vững mạnh tổng thể của các tính năng. Thedescriptorsareevaluatedusingrecall- (1-chính xác) đồ thị, asin [4] và [8]. Đối với mỗi đánh giá, chúng tôi sử dụng đầu tiên fi và hình ảnh thứ tư của dãy, trừ các Gra ffi ti (hình 1 và 3) và cảnh Wall (hình 1 và 5), tương ứng với một sự thay đổi quan điểm của 30 và 50 độ, tương ứng. Trong fi gures4 and7, chúng tôi comparedour SURF để mô tả GLOH, SIFT và PCA-SIFT, dựa vào các điểm quan tâm phát hiện với 'Fast-Hessian' dò của chúng tôi. SURF vượt trội so với các mô tả khác cho gần như tất cả những sự so sánh. Trong hình. 4, chúng tôi so sánh các kết quả bằng cách sử dụng hai kỹ thuật phù hợp erent di ff, một dựa trên ngưỡng tương đồng và một dựa trên tỷ lệ người hàng xóm gần nhất (xem [8] cho một cuộc thảo luận về các kỹ thuật). Điều này có một e ff ect trên bảng xếp hạng của các mô tả, nhưng SURF thực hiện tốt nhất trong cả hai trường hợp. Do không gian hạn chế, chỉ có kết quả trên ngưỡng tương hợp dựa được hiển thị trong hình. 7, như kỹ thuật này là phù hợp hơn để đại diện phân phối của các mô tả trong không gian đặc trưng của nó [8] và nó được sử dụng tổng quát hơn. Bộ mô tả SURF nhanh hơn so với các mô tả khác trong một cách có hệ thống và không thể fi trọng yếu, có đôi khi sự cải thiện hơn so với 10% trong thu hồi cho cùng một mức độ chính xác. Đồng thời, nó là nhanh chóng để tính toán (xem Bảng 2). Các phiên bản chính xác (SURF-128), được trình bày trong phần 4, cho thấy kết quả tốt hơn một chút so với SURF thường xuyên, nhưng chậm hơn để phù hợp và do đó ít thú vị cho các ứng dụng tốc độ phụ thuộc. Lưu ý rằng trong suốt bài báo, bao gồm cả các recognitionexperiment đối tượng, chúng tôi luôn luôn sử dụng cùng một tập hợp các thông số và các ngưỡng (xem bảng 1). Các timings được đánh giá trên một tiêu chuẩn Linux PC (Pentium IV, 3GHz).
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: