Definition 2. (Expected-Support-based Frequent Itemset) Given an uncer dịch - Definition 2. (Expected-Support-based Frequent Itemset) Given an uncer Việt làm thế nào để nói

Definition 2. (Expected-Support-bas

Definition 2. (Expected-Support-based Frequent Itemset) Given an uncertain transaction database U DB which in- cludes N transactions, and a minimum expected support ratio, min esup, an itemset X is an expected support-based frequent itemset if and only if esup(X ) ≥ N × min esup

Example 1. (Expected Support-based Frequent Itemset) Given an uncertain database in Table 1 and the minimum ex- pected support, min esup=0.5, there are only two expected support-based frequent itemsets: A(2.1) and C (2.6) where the number in each bracket is the expected support of the corresponding itemset.

Definition 3. (Frequent Probability) Given an uncertain transaction database U DB which includes N transactions, a minimum support ratio min sup, and an itemset X , X ’s frequent probability, denoted as P r(X ), is shown as follows:
P r(X ) = P r{sup(X ) ≥ N × min sup}

Definition 4. (Probabilistic Frequent Itemset) Given an uncertain transaction database U DB which includes N trans- actions, a minimum support ratio min sup, and a probabilis- tic frequent threshold pf t, an itemset X is a probabilistic frequent itemset if X ’s frequent probability is larger than the probabilistic frequent threshold, namely,
P r(X ) = P r{sup(X ) ≥ N × min sup} > pf t

Example 2. (Probabilistic Frequent Itemset) Given an un- certain database in Table 2, min sup=0.5, and pf t = 0.7, the probability distribution of the support of A is shown in Table 2. So, the frequent probability of A is: P r(X ) = P r{sup(A) ≥ 4 × 0.5} = P r{sup(A) ≥ 2} = P r{sup(A) =
2} + P r{sup(A) = 3} = 0.4 + 0.32 > 0.7 = pf t. Thus, {A}
is a probabilistic frequent itemset.

3. ALGORITHMS OF FREQUENT ITEM- SET MINING
We categorize the eight representative algorithms into three groups. The first group is the expected support-based fre- quent algorithms. These algorithms aim to find all expected support-based frequent itemsets. For each itemset, these algorithms only consider the expected support to measure its frequency. The complexity of computing the expected support of an itemset is O(N ), where N is the number of transactions. The second group is the exact probabilistic frequent algorithms. These algorithms discover all proba- bilistic frequent itemsets and report exact frequent proba- bility for each itemset. Due to complexity of computing the exact frequent probability instead of the simple expectation,

these algorithms need to spend at least O(N logN ) compu- tation cost for each itemset. Moreover, in order to avoid redundant processing, the Chernoff bound-based pruning is a way to reduce the running time of this group of algorithm- s. The third group is the approximate probabilistic frequent algorithms. Due to the sound properties of the Poisson Bi- nomial distribution, this group of algorithms can obtain the approximate frequent probability with high quality by on- ly acquiring the first moment (expectation) and the second moment (variance). Therefore, the third kind of algorithms have the O(N ) computation cost and return the complete probability information when uncertain databases are large enough. To sum up, the third kind of algorithms actually build a bridge between two different definitions of frequent itemsets over uncertain databases.

3.1 Expected Support-based Frequent Algo- rithms
In this subsection, we summarize three the most represen- tative expected support-based frequent itemset mining algo- rithms: U Apriori [17, 18], U F P − growth [22], U H − M ine [4]. The first algorithm is based on the generate-and-test framework employing the breath-first search strategy. The other two algorithms are based on the divide-and-conquer framework which uses the depth-first search strategy. Al- though Apriori algorithm is slower than the other two al- gorithms in deterministic databases, UApriori which is the uncertain version of Apriori, actually performs rather well among the three algorithms and is usually the fastest one in dense uncertain datasets based on our experimental result- s in Section 4. We further explain three algorithms in the following subsections and Section 4.

3.1.1 UApriori
The first expected support-based frequent itemset mining algorithm was proposed by Chui et al. in 2007 [18]. This algorithm extends the well-known Apriori algorithm [17, 18] to the uncertain environment and uses the generate-and- test framework to find all expected support-based frequent itemsets. We generally introduced UApriori algorithm as follows. The algorithm first finds all the expected support- based frequent items firstly. Then, it repeatedly joins all expected support-based frequent i-itemsets to produce i + 1- itemset candidates and test i+1-itemset candidates to obtain expected support-based frequent i + 1-itemsets. Finally, it ends when no expected support-based frequent i+1-itemsets are generated.
Fortunately, the well-known downward closure property [8] still works in uncertain databases. Thus, the traditional Apriori pruning can be used when we check whether an item- set is an expected support-based frequent itemset. In other words, all supersets of this itemset must not be expected support-based frequent itemsets. In addition, several decre- mental pruning methods [17, 18] were proposed for further improving the efficiency. These methods mainly aim to find the upper bound of the expected support of an itemset as early as possible. Once the upper bound is lower than the minimum expected support, the traditional Apriori pruning can be used. However, the decremental pruning methods de- pend on the structure of datasets, thus, the most important pruning method in UApriori is still the traditional Apriori pruning.

0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Định nghĩa 2. (Dự kiến sẽ hỗ trợ-dựa trên thường xuyên Itemset) Cho một giao dịch không chắc chắn cơ sở dữ liệu U DB đó trong cludes N giao dịch, và một tỷ lệ tối thiểu hỗ trợ dự kiến, min esup, một itemset X là một dự kiến sẽ dựa trên hỗ trợ thường xuyên itemset nếu và chỉ nếu esup (X) ≥ N × min esupVí dụ 1. (Dự kiến sẽ dựa trên hỗ trợ thường xuyên Itemset) Đưa ra một cơ sở dữ liệu không chắc chắn trong bảng 1 và hỗ trợ tối thiểu ex-pected, min esup = 0,5, có những chỉ có hai dự kiến sẽ dựa trên hỗ trợ thường xuyên itemsets: A(2.1) và C (2,6) nơi số trong mỗi khung là sự hỗ trợ dự kiến của itemset tương ứng.Định nghĩa 3. (Thường xuyên xác suất) Đưa ra một cơ sở dữ liệu không chắc chắn giao dịch U DB có N giao dịch, một tỷ lệ tối thiểu hỗ trợ min sup và một itemset X, xác suất thường xuyên của X, kí hiệu là P r (X), được thể hiện như sau:P r (X) = P r {sup (X) ≥ N × min sup}Định nghĩa 4. (Xác suất thường xuyên Itemset) Đưa ra một cơ sở dữ liệu không chắc chắn giao dịch U DB có N trans-hành động, một tỷ lệ tối thiểu hỗ trợ min sup, và một probabilis-tic thường xuyên ngưỡng pf t, một itemset X là một thường xuyên itemset xác suất nếu xác suất thường xuyên của X là lớn hơn thường xuyên ngưỡng xác suất, cụ thể là,P r (X) = P r {sup (X) ≥ N × min sup} > pf tVí dụ 2. (Xác suất thường xuyên Itemset) Đưa ra một liên hợp quốc - một số cơ sở dữ liệu trong bảng 2, min sup = 0,5, và pf t = 0.7, phân bố xác suất của sự hỗ trợ của A Hiển thị trong bảng 2. Vì vậy, thường xuyên xác suất của A là: P r (X) = P r{sup(A) ≥ 4 × 0,5} = P r{sup(A) ≥ 2} = P r{sup(A) =2} + P r{sup(A) = 3} = cách 0.4 + 0,32 > 0.7 = pf t. Vì vậy, {A}là một thường xuyên itemset xác suất.3. CÁC THUẬT TOÁN THƯỜNG XUYÊN THIẾT LẬP MỤC KHAI THÁC MỎChúng tôi phân loại các thuật toán đại diện tám thành ba nhóm. Nhóm đầu tiên là thuật toán dự kiến sẽ hỗ trợ dựa trên fre-quent. Các thuật toán này nhằm mục đích tìm tất cả các dự kiến sẽ dựa trên hỗ trợ thường xuyên itemsets. Đối với mỗi itemset, các thuật toán này chỉ xem xét hỗ trợ dự kiến để đo tần số của nó. Sự phức tạp của máy tính hỗ trợ dự kiến của một itemset là O (N), trong đó N là số lượng giao dịch. Nhóm thứ hai là chính xác các thuật toán xác suất thường xuyên. Các thuật toán này khám phá tất cả proba - bilistic thường xuyên itemsets và báo cáo chính xác thường xuyên proba-bility cho mỗi itemset. Do sự phức tạp của tính toán chính xác xác suất thường xuyên thay vì kỳ vọng đơn giản, Các thuật toán này cần phải chi tiêu tối thiểu chi phí compu-tation O (N logN) cho mỗi itemset. Hơn nữa, để tránh chế biến dự phòng, cắt tỉa ràng buộc dựa trên Chernoff là một cách để giảm thời gian chạy của nhóm này của thuật toán-s. Nhóm thứ ba là gần đúng các thuật toán xác suất thường xuyên. Do các thuộc tính âm thanh của Poisson Bi - phân phối nomial, nhóm này của thuật toán có thể có được xác suất thường xuyên gần đúng với chất lượng cao bởi trên lý mua lại thời điểm đầu tiên (kỳ vọng) và thời điểm thứ hai (phương sai). Do đó, các loại thứ ba của thuật toán đã tính toán O (N) chi phí và trở lại thông tin đầy đủ xác suất khi cơ sở dữ liệu không chắc chắn là đủ lớn. Tổng kết, các loại thứ ba của thuật toán thực sự xây dựng một cầu nối giữa hai định nghĩa khác nhau của itemsets thường xuyên trên cơ sở dữ liệu không chắc chắn.3.1 dựa trên dự kiến sẽ hỗ trợ thường xuyên Algo-rithmsTrong tiểu mục này, chúng tôi tóm tắt ba các hầu hết represen - tative dự kiến sẽ dựa trên hỗ trợ thường xuyên itemset khai thác mỏ algo-rithms: U Apriori [17, 18], U F P − tăng trưởng [22], U H − M ine [4]. Các thuật toán đầu tiên dựa trên khuôn khổ tạo và thử nghiệm sử dụng chiến lược tìm kiếm theo hơi thở. Các thuật toán hai khác được dựa trên khuôn khổ phân chia và chinh phục mà sử dụng chiến lược tìm kiếm theo chiều sâu. Al - mặc dù Apriori thuật toán là chậm hơn so với các khác hai al-gorithms trong cơ sở dữ liệu xác định, UApriori là phiên bản không chắc chắn của Apriori, thực sự thực hiện khá tốt trong các thuật toán ba và thường là một trong những nhanh nhất ở dày đặc datasets không chắc chắn dựa trên kết quả thử nghiệm của chúng tôi s trong phần 4. Chúng tôi tiếp tục giải thích các thuật toán ba trong các phần phụ và phần 4.3.1.1 UAprioriNgười đầu tiên dự kiến sẽ dựa trên hỗ trợ thường xuyên itemset khai thác mỏ thuật toán được đề ra bởi Chui et al. vào năm 2007 [18]. Thuật toán này kéo dài nổi tiếng Apriori thuật toán [17, 18] đến môi trường không chắc chắn và sử dụng khung tạo và thử nghiệm để tìm tất cả các dự kiến sẽ dựa trên hỗ trợ thường xuyên itemsets. Chúng tôi thường giới thiệu UApriori thuật toán như sau. Các thuật toán đầu tiên tìm thấy tất cả các dự kiến sẽ hỗ trợ dựa trên thường xuyên mục thứ nhất. Sau đó, nó liên tục tham gia tất cả dự kiến sẽ dựa trên hỗ trợ thường xuyên i-itemsets để sản xuất tôi + 1-itemset ứng cử viên và kiểm tra i + 1-itemset ứng cử viên để có được dự kiến sẽ dựa trên hỗ trợ thường xuyên tôi + 1-itemsets. Cuối cùng, nó kết thúc khi không có dự kiến sẽ hỗ trợ dựa trên thường xuyên tôi + 1-itemsets được tạo ra.May mắn thay, bất động sản đóng cửa xuống nổi tiếng [8] vẫn hoạt động trong cơ sở dữ liệu không chắc chắn. Do đó, cắt tỉa Apriori truyền thống có thể được sử dụng khi chúng tôi kiểm tra xem một thiết lập mục có một dự kiến sẽ dựa trên hỗ trợ thường xuyên itemset. Nói cách khác, tất cả các supersets itemset này không phải là dự kiến sẽ dựa trên hỗ trợ thường xuyên itemsets. Ngoài ra, một số decre - tâm thần cắt tỉa phương pháp [17, 18] đã được đề xuất để tiếp tục cải thiện hiệu quả. Những phương pháp này chủ yếu là nhằm mục đích để tìm ràng buộc của sự hỗ trợ dự kiến của một itemset càng sớm càng tốt. Một khi ràng buộc là thấp hơn so với sự hỗ trợ mong đợi tối thiểu, cắt tỉa Apriori truyền thống có thể được sử dụng. Tuy nhiên, phương pháp cắt tỉa decremental de-pend vào cấu trúc của datasets, do đó, quan trọng nhất cắt tỉa phương pháp trong UApriori vẫn là cắt tỉa Apriori truyền thống.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Định nghĩa 2. (Dự kiến-Hỗ trợ dựa trên tập phổ biến) Cho một cơ sở dữ liệu giao dịch không chắc chắn U DB mà tính cả giao dịch cludes N, và tỷ lệ hỗ trợ tối thiểu dự kiến, min esup, một itemset X là một hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên khi và chỉ nếu esup (X) ≥ N × min esup Ví dụ 1. (dự kiến hỗ trợ dựa trên tập phổ biến) Cho một cơ sở dữ liệu không chắc chắn trong Bảng 1 và tối thiểu Thí hỗ trợ ngờ, min esup = 0,5, có được chỉ có hai dự kiến hỗ trợ dựa trên thường xuyên tập phổ biến: A (2,1) và C (2,6), nơi số lượng trong mỗi khung là sự hỗ trợ dự kiến tương ứng itemset. Định nghĩa 3. (Xác suất thường xuyên) Cho một cơ sở dữ liệu giao dịch không chắc chắn U DB gồm N giao dịch, tỷ lệ hỗ trợ tối thiểu min sup, và một itemset X, xác suất thường xuyên X 's, ký hiệu là P r (X), được thể hiện như sau: P r (X) = P r {sup (X) ≥ N × min sup} Định nghĩa 4. (xác suất tập phổ biến) Cho một cơ sở dữ liệu giao dịch không chắc chắn U DB gồm N xuyên hành động, một tỷ lệ hỗ trợ tối thiểu min sup, và một tic probabilis- ngưỡng thường xuyên pf t, một itemset X là một tập phổ biến xác suất nếu xác suất thường xuyên X 's lớn hơn ngưỡng xác suất thường xuyên, cụ thể là, P r (X) = P r {sup (X) ≥ N × min} sup> pf t Ví dụ 2. (xác suất tập phổ biến) Cho một cơ sở dữ liệu nhất định un- trong Bảng 2, min sup = 0,5, và pf t = 0,7, phân phối xác suất của sự hỗ trợ của A được thể hiện trong Bảng 2. Vì vậy, xác suất thường xuyên của A là: P r (X) = P r {sup (A) ≥ 4 × 0,5} = P r {sup (A) ≥ 2} = P r {sup (A) = 2} + P r {sup (A) = 3} = 0,4 + 0,32> 0,7 = pf t. Như vậy, {A} là một tập phổ biến xác suất. 3. ALGORITHMS HÀNH thường xuyên MINING SET item- Chúng tôi phân loại các thuật toán tám đại diện thành ba nhóm. Nhóm thứ nhất là sự hỗ trợ dựa trên các thuật toán quent độ thường xuyên dự kiến. Các thuật toán này nhằm mục đích để tìm tất cả các hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên. Đối với mỗi tập phổ biến, các thuật toán này chỉ xem xét hỗ trợ dự kiến để đo tần số của nó. Sự phức tạp của máy tính hỗ trợ dự kiến của một tập phổ biến là O (N), trong đó N là số lượng giao dịch. Nhóm thứ hai là các thuật toán thường xuyên xác suất chính xác. Những thuật toán phát hiện ra tất cả các tập phổ biến bilistic xác suất và báo cáo chính xác trách xác suất thường xuyên cho mỗi tập phổ biến. Do sự phức tạp của tính toán xác suất thường xuyên chính xác thay vì kỳ vọng đơn giản, các thuật toán cần phải chi tiêu ít nhất là O (N logN) chi phí tation compu- cho mỗi tập phổ biến. Hơn nữa, để tránh xử lý dư thừa, cắt tỉa Chernoff ràng buộc dựa trên là một cách để giảm thời gian chạy của nhóm này algorithm- s. Nhóm thứ ba là các thuật toán thường xuyên xác suất gần đúng. Do những đặc tính âm thanh của sự phân bố Poisson nomial tổ chức song phương, nhóm này các thuật toán có thể được xác suất thường xuyên gần đúng với chất lượng cao on-ly mua lại giây phút đầu tiên (kỳ vọng) và thời điểm thứ hai (phương sai). Vì vậy, loại thứ ba của các thuật toán có O (N) chi phí tính toán và trả lại thông tin xác suất thành công khi cơ sở dữ liệu không chắc chắn là đủ lớn. Tóm lại, các loại thứ ba của các thuật toán thực sự xây dựng một cây cầu giữa hai định nghĩa khác nhau của tập phổ biến trên cơ sở dữ liệu không chắc chắn. 3.1 Dự kiến hỗ trợ dựa trên thường xuyên rithms Algo- Trong tiểu mục này, chúng tôi tóm tắt ba các người đại represen- nhất dự kiến sẽ hỗ trợ dựa trên thường xuyên khai thác tập phổ biến algo- rithms: U Apriori [17, 18], UFP - tăng trưởng [22], UH - M ine [4]. Các thuật toán đầu tiên được dựa trên khung tạo-và-kiểm tra sử dụng các chiến lược tìm kiếm hơi thở đầu tiên. Hai thuật toán khác được dựa trên khung divide-and-conquer trong đó sử dụng các chiến lược tìm kiếm theo chiều sâu đầu tiên. Mặc dù thuật toán Apriori là chậm hơn so với hai gorithms al- khác trong cơ sở dữ liệu xác định, UApriori đó là phiên bản không chắc chắn của Apriori, thực sự thực hiện khá tốt trong ba thuật toán và thường là một trong những nhanh nhất trong bộ dữ liệu không chắc chắn dày đặc trên cơ sở kết quả thực nghiệm của chúng tôi - s trong phần 4. Chúng tôi tiếp tục giải thích ba thuật toán trong các phần phụ và Phần 4 sau đây. 3.1.1 UApriori Dự kiến đầu tiên hỗ trợ dựa trên thuật toán khai thác tập phổ biến đã được đề xuất bởi Chui et al. vào năm 2007 [18]. Thuật toán này mở rộng các thuật toán Apriori nổi tiếng [17, 18] đối với môi trường không chắc chắn và sử dụng khuôn khổ thử nghiệm tạo ra và đường dẫn để tìm tất cả các hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên. Chúng tôi thường giới thiệu thuật toán UApriori như sau. Các thuật toán đầu tiên tìm thấy tất cả các dự đoán dựa Support mục thường xuyên, trước tiên. Sau đó, nó liên tục tham gia tất cả các dự kiến hỗ trợ dựa trên thường xuyên i-tập phổ biến để sản xuất i + 1 ứng viên itemset và kiểm tra i + 1-itemset ứng viên để có được dự kiến hỗ trợ dựa trên thường xuyên i + 1-tập phổ biến. Cuối cùng, nó kết thúc khi không có dự kiến hỗ trợ dựa trên i thường xuyên + 1-tập phổ biến được tạo ra. May mắn thay, các tài sản đóng cửa giảm nổi tiếng [8] vẫn hoạt động trong cơ sở dữ liệu không chắc chắn. Vì vậy, cắt tỉa Apriori truyền thống có thể được sử dụng khi chúng ta kiểm tra xem một bộ item- là một hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên. Nói cách khác, tất cả supersets của tập phổ biến này không được dự kiến sẽ hỗ trợ dựa trên tập phổ biến. Ngoài ra, một số phương pháp cắt tỉa tinh thần decre- [17, 18] đã được đề xuất để tiếp tục nâng cao hiệu quả. Những phương pháp này chủ yếu nhằm mục đích để tìm trên ràng buộc của sự hỗ trợ dự kiến của một tập phổ biến càng sớm càng tốt. Một khi các ràng buộc trên là thấp hơn so với sự hỗ trợ tối thiểu dự kiến, cắt tỉa Apriori truyền thống có thể được sử dụng. Tuy nhiên, các phương pháp cắt tỉa decremental de- pend vào cấu trúc của bộ dữ liệu, do đó, các phương pháp cắt tỉa quan trọng nhất trong UApriori vẫn là cắt tỉa Apriori truyền thống.

























đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: