Definition 2. (Expected-Support-based Frequent Itemset) Given an uncer dịch - Definition 2. (Expected-Support-based Frequent Itemset) Given an uncer Việt làm thế nào để nói

Definition 2. (Expected-Support-bas

Definition 2. (Expected-Support-based Frequent Itemset) Given an uncertain transaction database U DB which in- cludes N transactions, and a minimum expected support ratio, min esup, an itemset X is an expected support-based frequent itemset if and only if esup(X ) ≥ N × min esup

Example 1. (Expected Support-based Frequent Itemset) Given an uncertain database in Table 1 and the minimum ex- pected support, min esup=0.5, there are only two expected support-based frequent itemsets: A(2.1) and C (2.6) where the number in each bracket is the expected support of the corresponding itemset.

Definition 3. (Frequent Probability) Given an uncertain transaction database U DB which includes N transactions, a minimum support ratio min sup, and an itemset X , X ’s frequent probability, denoted as P r(X ), is shown as follows:
P r(X ) = P r{sup(X ) ≥ N × min sup}

Definition 4. (Probabilistic Frequent Itemset) Given an uncertain transaction database U DB which includes N trans- actions, a minimum support ratio min sup, and a probabilis- tic frequent threshold pf t, an itemset X is a probabilistic frequent itemset if X ’s frequent probability is larger than the probabilistic frequent threshold, namely,
P r(X ) = P r{sup(X ) ≥ N × min sup} > pf t

Example 2. (Probabilistic Frequent Itemset) Given an un- certain database in Table 2, min sup=0.5, and pf t = 0.7, the probability distribution of the support of A is shown in Table 2. So, the frequent probability of A is: P r(X ) = P r{sup(A) ≥ 4 × 0.5} = P r{sup(A) ≥ 2} = P r{sup(A) =
2} + P r{sup(A) = 3} = 0.4 + 0.32 > 0.7 = pf t. Thus, {A}
is a probabilistic frequent itemset.

3. ALGORITHMS OF FREQUENT ITEM- SET MINING
We categorize the eight representative algorithms into three groups. The first group is the expected support-based fre- quent algorithms. These algorithms aim to find all expected support-based frequent itemsets. For each itemset, these algorithms only consider the expected support to measure its frequency. The complexity of computing the expected support of an itemset is O(N ), where N is the number of transactions. The second group is the exact probabilistic frequent algorithms. These algorithms discover all proba- bilistic frequent itemsets and report exact frequent proba- bility for each itemset. Due to complexity of computing the exact frequent probability instead of the simple expectation,

these algorithms need to spend at least O(N logN ) compu- tation cost for each itemset. Moreover, in order to avoid redundant processing, the Chernoff bound-based pruning is a way to reduce the running time of this group of algorithm- s. The third group is the approximate probabilistic frequent algorithms. Due to the sound properties of the Poisson Bi- nomial distribution, this group of algorithms can obtain the approximate frequent probability with high quality by on- ly acquiring the first moment (expectation) and the second moment (variance). Therefore, the third kind of algorithms have the O(N ) computation cost and return the complete probability information when uncertain databases are large enough. To sum up, the third kind of algorithms actually build a bridge between two different definitions of frequent itemsets over uncertain databases.

3.1 Expected Support-based Frequent Algo- rithms
In this subsection, we summarize three the most represen- tative expected support-based frequent itemset mining algo- rithms: U Apriori [17, 18], U F P − growth [22], U H − M ine [4]. The first algorithm is based on the generate-and-test framework employing the breath-first search strategy. The other two algorithms are based on the divide-and-conquer framework which uses the depth-first search strategy. Al- though Apriori algorithm is slower than the other two al- gorithms in deterministic databases, UApriori which is the uncertain version of Apriori, actually performs rather well among the three algorithms and is usually the fastest one in dense uncertain datasets based on our experimental result- s in Section 4. We further explain three algorithms in the following subsections and Section 4.

3.1.1 UApriori
The first expected support-based frequent itemset mining algorithm was proposed by Chui et al. in 2007 [18]. This algorithm extends the well-known Apriori algorithm [17, 18] to the uncertain environment and uses the generate-and- test framework to find all expected support-based frequent itemsets. We generally introduced UApriori algorithm as follows. The algorithm first finds all the expected support- based frequent items firstly. Then, it repeatedly joins all expected support-based frequent i-itemsets to produce i + 1- itemset candidates and test i+1-itemset candidates to obtain expected support-based frequent i + 1-itemsets. Finally, it ends when no expected support-based frequent i+1-itemsets are generated.
Fortunately, the well-known downward closure property [8] still works in uncertain databases. Thus, the traditional Apriori pruning can be used when we check whether an item- set is an expected support-based frequent itemset. In other words, all supersets of this itemset must not be expected support-based frequent itemsets. In addition, several decre- mental pruning methods [17, 18] were proposed for further improving the efficiency. These methods mainly aim to find the upper bound of the expected support of an itemset as early as possible. Once the upper bound is lower than the minimum expected support, the traditional Apriori pruning can be used. However, the decremental pruning methods de- pend on the structure of datasets, thus, the most important pruning method in UApriori is still the traditional Apriori pruning.

0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Định nghĩa 2. (Dự kiến sẽ hỗ trợ-dựa trên thường xuyên Itemset) Cho một giao dịch không chắc chắn cơ sở dữ liệu U DB đó trong cludes N giao dịch, và một tỷ lệ tối thiểu hỗ trợ dự kiến, min esup, một itemset X là một dự kiến sẽ dựa trên hỗ trợ thường xuyên itemset nếu và chỉ nếu esup (X) ≥ N × min esupVí dụ 1. (Dự kiến sẽ dựa trên hỗ trợ thường xuyên Itemset) Đưa ra một cơ sở dữ liệu không chắc chắn trong bảng 1 và hỗ trợ tối thiểu ex-pected, min esup = 0,5, có những chỉ có hai dự kiến sẽ dựa trên hỗ trợ thường xuyên itemsets: A(2.1) và C (2,6) nơi số trong mỗi khung là sự hỗ trợ dự kiến của itemset tương ứng.Định nghĩa 3. (Thường xuyên xác suất) Đưa ra một cơ sở dữ liệu không chắc chắn giao dịch U DB có N giao dịch, một tỷ lệ tối thiểu hỗ trợ min sup và một itemset X, xác suất thường xuyên của X, kí hiệu là P r (X), được thể hiện như sau:P r (X) = P r {sup (X) ≥ N × min sup}Định nghĩa 4. (Xác suất thường xuyên Itemset) Đưa ra một cơ sở dữ liệu không chắc chắn giao dịch U DB có N trans-hành động, một tỷ lệ tối thiểu hỗ trợ min sup, và một probabilis-tic thường xuyên ngưỡng pf t, một itemset X là một thường xuyên itemset xác suất nếu xác suất thường xuyên của X là lớn hơn thường xuyên ngưỡng xác suất, cụ thể là,P r (X) = P r {sup (X) ≥ N × min sup} > pf tVí dụ 2. (Xác suất thường xuyên Itemset) Đưa ra một liên hợp quốc - một số cơ sở dữ liệu trong bảng 2, min sup = 0,5, và pf t = 0.7, phân bố xác suất của sự hỗ trợ của A Hiển thị trong bảng 2. Vì vậy, thường xuyên xác suất của A là: P r (X) = P r{sup(A) ≥ 4 × 0,5} = P r{sup(A) ≥ 2} = P r{sup(A) =2} + P r{sup(A) = 3} = 0.4 + 0.32 > 0.7 = pf t. Thus, {A}is a probabilistic frequent itemset.3. ALGORITHMS OF FREQUENT ITEM- SET MININGWe categorize the eight representative algorithms into three groups. The first group is the expected support-based fre- quent algorithms. These algorithms aim to find all expected support-based frequent itemsets. For each itemset, these algorithms only consider the expected support to measure its frequency. The complexity of computing the expected support of an itemset is O(N ), where N is the number of transactions. The second group is the exact probabilistic frequent algorithms. These algorithms discover all proba- bilistic frequent itemsets and report exact frequent proba- bility for each itemset. Due to complexity of computing the exact frequent probability instead of the simple expectation, these algorithms need to spend at least O(N logN ) compu- tation cost for each itemset. Moreover, in order to avoid redundant processing, the Chernoff bound-based pruning is a way to reduce the running time of this group of algorithm- s. The third group is the approximate probabilistic frequent algorithms. Due to the sound properties of the Poisson Bi- nomial distribution, this group of algorithms can obtain the approximate frequent probability with high quality by on- ly acquiring the first moment (expectation) and the second moment (variance). Therefore, the third kind of algorithms have the O(N ) computation cost and return the complete probability information when uncertain databases are large enough. To sum up, the third kind of algorithms actually build a bridge between two different definitions of frequent itemsets over uncertain databases.3.1 Expected Support-based Frequent Algo- rithmsIn this subsection, we summarize three the most represen- tative expected support-based frequent itemset mining algo- rithms: U Apriori [17, 18], U F P − growth [22], U H − M ine [4]. The first algorithm is based on the generate-and-test framework employing the breath-first search strategy. The other two algorithms are based on the divide-and-conquer framework which uses the depth-first search strategy. Al- though Apriori algorithm is slower than the other two al- gorithms in deterministic databases, UApriori which is the uncertain version of Apriori, actually performs rather well among the three algorithms and is usually the fastest one in dense uncertain datasets based on our experimental result- s in Section 4. We further explain three algorithms in the following subsections and Section 4.3.1.1 UAprioriThe first expected support-based frequent itemset mining algorithm was proposed by Chui et al. in 2007 [18]. This algorithm extends the well-known Apriori algorithm [17, 18] to the uncertain environment and uses the generate-and- test framework to find all expected support-based frequent itemsets. We generally introduced UApriori algorithm as follows. The algorithm first finds all the expected support- based frequent items firstly. Then, it repeatedly joins all expected support-based frequent i-itemsets to produce i + 1- itemset candidates and test i+1-itemset candidates to obtain expected support-based frequent i + 1-itemsets. Finally, it ends when no expected support-based frequent i+1-itemsets are generated.Fortunately, the well-known downward closure property [8] still works in uncertain databases. Thus, the traditional Apriori pruning can be used when we check whether an item- set is an expected support-based frequent itemset. In other words, all supersets of this itemset must not be expected support-based frequent itemsets. In addition, several decre- mental pruning methods [17, 18] were proposed for further improving the efficiency. These methods mainly aim to find the upper bound of the expected support of an itemset as early as possible. Once the upper bound is lower than the minimum expected support, the traditional Apriori pruning can be used. However, the decremental pruning methods de- pend on the structure of datasets, thus, the most important pruning method in UApriori is still the traditional Apriori pruning.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Định nghĩa 2. (Dự kiến-Hỗ trợ dựa trên tập phổ biến) Cho một cơ sở dữ liệu giao dịch không chắc chắn U DB mà In- giao dịch cludes N, và tỷ lệ hỗ trợ tối thiểu dự kiến, min esup, một itemset X là một hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên khi và chỉ nếu esup (X) ≥ N × min esup Ví dụ 1 (dự kiến hỗ trợ dựa trên tập phổ biến) Cho một cơ sở dữ liệu không chắc chắn trong Bảng 1 và tối thiểu Ex- hỗ trợ ngờ, min esup = 0,5, có được chỉ có hai dự kiến hỗ trợ dựa trên thường xuyên tập phổ biến: A (2,1) và C (2,6), nơi số lượng trong mỗi khung là sự hỗ trợ dự kiến tương ứng itemset. Định nghĩa 3. (Xác suất thường xuyên) Cho một cơ sở dữ liệu giao dịch không chắc chắn U DB bao gồm N giao dịch, tỷ lệ hỗ trợ tối thiểu min sup, và một itemset X, xác suất thường xuyên X 's, ký hiệu là P r (X), được thể hiện như sau: P r (X) = P r {sup (X) ≥ N × min sup} Định nghĩa 4. (xác suất tập phổ biến) Cho một cơ sở dữ liệu giao dịch không chắc chắn U DB bao gồm N xuyên hành động, một tỷ lệ hỗ trợ tối thiểu min sup, và một tic probabilis- ngưỡng thường xuyên pf t, một itemset X là một tập phổ biến xác suất nếu xác suất thường xuyên X 's lớn hơn ngưỡng xác suất thường xuyên, cụ thể là, P r (X) = P r {sup (X) ≥ N × min sup}> pf t Ví dụ 2. (Probabilistic tập phổ biến) Cho một cơ sở dữ liệu nhất định un- trong Bảng 2, min sup = 0,5, và pf t = 0,7, phân phối xác suất của sự hỗ trợ của A được thể hiện trong Bảng 2. Vì vậy, xác suất thường xuyên của A là: P r (X) = P r {sup (A) ≥ 4 × 0,5} = P r {sup (A) ≥ 2} = P r {sup (A) = 2} + P r {sup (A) = 3} = 0,4 + 0,32> 0,7 = pf t. Như vậy, {A} là một tập phổ biến xác suất. 3. ALGORITHMS thường gặp qua MINING SET item- Chúng tôi phân loại các thuật toán tám đại diện thành ba nhóm. Nhóm thứ nhất là sự hỗ trợ dựa trên các thuật toán quent fre- dự kiến. Các thuật toán này nhằm mục đích để tìm tất cả các hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên. Đối với mỗi tập phổ biến, các thuật toán này chỉ xem xét hỗ trợ dự kiến để đo tần số của nó. Sự phức tạp của máy tính hỗ trợ dự kiến của một tập phổ biến là O (N), trong đó N là số lượng giao dịch. Nhóm thứ hai là các thuật toán thường xuyên xác suất chính xác. Các thuật toán phát hiện ra tất cả các tập phổ biến bilistic xác suất và báo cáo chính xác trách xác suất thường xuyên cho mỗi tập phổ biến. Do sự phức tạp của tính toán xác suất thường xuyên chính xác thay vì kỳ vọng đơn giản, các thuật toán cần phải chi tiêu ít nhất là O (N logN) chi phí tation compu- cho mỗi tập phổ biến. Hơn nữa, để tránh xử lý dư thừa, cắt tỉa Chernoff ràng buộc dựa trên là một cách để giảm thời gian chạy của nhóm này algorithm- s. Nhóm thứ ba là các thuật toán thường xuyên xác suất gần đúng. Do những đặc tính âm thanh của sự phân bố Poisson ghi rõ tên tổ chức song phương, nhóm này của thuật toán có thể được xác suất thường xuyên gần đúng với chất lượng cao on-ly mua lại giây phút đầu tiên (kỳ vọng) và thời điểm thứ hai (phương sai). Do đó, loại thứ ba của các thuật toán có O (N) chi phí tính toán và trả lại thông tin xác suất thành công khi cơ sở dữ liệu không chắc chắn là đủ lớn. Tóm lại, loại thứ ba của các thuật toán thực sự xây dựng một cây cầu giữa hai định nghĩa khác nhau của tập phổ biến trên cơ sở dữ liệu không chắc chắn. 3.1 Dự kiến hỗ trợ dựa trên thường xuyên rithms Algo- Trong tiểu mục này, chúng tôi tóm tắt ba các tative represen- nhất dự kiến sẽ hỗ trợ dựa trên thường xuyên khai thác tập phổ biến algo- rithms: U Apriori [17, 18], UFP - tăng trưởng [22], UH - M ine [4]. Thuật toán đầu tiên được dựa trên khung tạo-và-kiểm tra sử dụng các chiến lược tìm kiếm hơi thở đầu tiên. Hai thuật toán khác được dựa trên khung divide-and-conquer trong đó sử dụng các chiến lược tìm kiếm theo chiều sâu. Mặc dù, thuật toán Apriori là chậm hơn so với hai gorithms al- khác trong cơ sở dữ liệu xác định, UApriori đó là phiên bản không chắc chắn của Apriori, thực sự thực hiện khá tốt giữa ba thuật toán và thường là một trong những nhanh nhất trong các tập dữ liệu không chắc chắn dày đặc dựa trên kết quả nghiệm của chúng tôi - s trong phần 4. Chúng tôi tiếp tục giải thích ba thuật toán trong các phần phụ và Mục 4 sau 3.1.1 UApriori Sự hỗ trợ dựa trên dự kiến tập phổ biến thuật toán khai thác đầu tiên được đề xuất bởi Chui et al. vào năm 2007 [18]. Thuật toán này mở rộng các thuật toán Apriori nổi tiếng [17, 18] đối với môi trường không chắc chắn và sử dụng khuôn khổ thử nghiệm tạo ra và đường dẫn để tìm tất cả các hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên. Chúng tôi thường giới thiệu thuật toán UApriori như sau. Thuật toán đầu tiên tìm thấy tất cả các dự đoán dựa Support mặt hàng thường xuyên, trước tiên. Sau đó, nó liên tục tham gia tất cả các hỗ trợ dự kiến dựa trên thường xuyên i-tập phổ biến để sản xuất i + 1 ứng viên itemset và kiểm tra i + 1-itemset ứng viên để có được dự kiến hỗ trợ dựa trên thường xuyên i + 1-tập phổ biến. Cuối cùng, nó kết thúc khi không có dự kiến hỗ trợ dựa trên i thường xuyên + 1-tập phổ biến được tạo ra. May mắn thay, các tài sản đóng cửa giảm nổi tiếng [8] vẫn hoạt động trong cơ sở dữ liệu không chắc chắn. Vì vậy, cắt tỉa Apriori truyền thống có thể được sử dụng khi chúng ta kiểm tra xem một bộ item- là một hỗ trợ dựa trên tập phổ biến dự kiến thường xuyên. Nói cách khác, tất cả supersets của tập phổ biến này không được dự kiến sẽ hỗ trợ dựa trên tập phổ biến. Ngoài ra, một số phương pháp cắt tỉa tinh thần decre- [17, 18] đã được đề xuất để tiếp tục nâng cao hiệu quả. Những phương pháp này chủ yếu nhằm mục đích để tìm trên ràng buộc của sự hỗ trợ dự kiến của một tập phổ biến càng sớm càng tốt. Một khi các ràng buộc trên là thấp hơn so với sự hỗ trợ tối thiểu dự kiến, cắt tỉa Apriori truyền thống có thể được sử dụng. Tuy nhiên, các phương pháp cắt tỉa decremental de- pend vào cấu trúc của bộ dữ liệu, do đó, các phương pháp cắt tỉa quan trọng nhất trong UApriori vẫn là cắt tỉa Apriori truyền thống.

























đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: