1. INTRODUCTIONOne of the data mining methods is sequential pattern di dịch - 1. INTRODUCTIONOne of the data mining methods is sequential pattern di Việt làm thế nào để nói

1. INTRODUCTIONOne of the data mini

1. INTRODUCTION
One of the data mining methods is sequential pattern discovery introduced in [2]. Informally, sequential patterns are the most frequently occurring subsequence’s in sequences of sets of items. Among many proposed sequential pattern-mining algorithms, most of them are designed to discover all sequential patterns exceeding a user specified minimum support threshold. In this paper, we explore a new frequent sequence pattern technique called AWAPT (Adaptive Web Access Pattern Tree), for FSP mining..



1.1 Web Mining Approaches
World Wide Web Data Mining includes content mining, hyperlink structure mining, and
usage mining. All three approaches attempt to extract knowledge from the Web, produce some useful results from the knowledge extracted, and apply the results to certain real- world problems. The first two apply the data mining techniques to Web page contents and hyperlink structures, respectively. The third approach, Web usage mining, the theme of this article, is the application of data mining techniques to the usage logs of large Web data repositories in order to produce results that can be applied to many practical subjects, such as improving Web sites/pages, making additional topic or product recommendations, user/customer behavior studies, etc. A Web usage mining system must be able to perform five major functions: i) data gathering, ii) data preparation, iii) navigation pattern discovery, iv) pattern analysis and visualization, and v) pattern applications.
Web mining can be categorized into three different classes based on which part of the Web is to be mined. These three categories are (i) Web content mining, (ii) Web structure mining and (iii) Web usage mining.

1.2 Web content mining is the task of discovering useful information available on-line. There are different kinds of Web content which can provide useful information to users, for example multimedia data, structured (i.e. XML documents), semi-structured (i.e. HTML documents) and unstructured data (i.e. plain text). The aim of Web content mining is to provide an efficient mechanism to help the users to find the information they seek. Web content mining includes the task of organizing and clustering the documents and providing search engines for accessing the different documents by keywords, categories, contents etc.

1.3 Web structure mining is the process of discovering the structure of hyperlinks within the Web. Practically, while Web content mining focuses on the inner-document information, Web structure mining discovers the link structures at the inter-document level. The aim is to identify the authoritative and the hub pages for a given subject. Authoritative pages contain useful information, and are supported by several links pointing to it, which means that these pages are highly referenced. A page having a lot of referencing hyperlinks means that the content of the page is useful, preferable and maybe reliable. Hubs are Web pages containing many links to authoritative pages, thus they help in clustering the authorities. Web structure mining can be achieved only in a single portal or also on the whole Web. Mining the structure of the Web supports the task of Web content mining. Using the information about the structure of the Web, the document retrieval can be made more efficiently, and the reliability and relevance of the found documents can be greater. The graph structure of the web can be exploited by Web

structure mining in order to improve the performance of the information retrieval and to improve classification of the documents.



1.4 Web usage mining
There are three types of log files that can be used for Web usage mining. Log files are
stored on the server side, on the client side and on the proxy servers. By having more than one place for storing the information of navigation patterns of the users makes the mining process more difficult. Really reliable results could be obtained only if one has data from all three types of log file. The reason for this is that the server side does not contain records of those Web page accesses that are cached on the proxy servers or on the client side. Besides the log file on the server, that on the proxy server provides additional information. However, the page requests stored in the client side are missing. Yet, it is problematic to collect all the information from the client side. Thus, most of the algorithms work based only the server side data. Some commonly used data mining algorithms for Web usage mining are association rule mining, sequence mining and clustering.

2. Web Access pattern Mining

Web Access pattern mining is also called as Web usage mining. Web usage mining, from the data mining aspect, is the task of applying data mining techniques to discover usage patterns from Web data in order to understand and better serve the needs of users navigating on the Web [13]. As every data mining task, the process of Web usage mining also consists of three main steps: (i) pre-processing, (ii) pattern discovery and (iii) pattern analysis. The pre-processing step contains three separate phases. Firstly, the collected data must be cleaned, which means that graphic and multimedia entries are removed. Secondly, the different sessions belonging to different users should be identified. Thirdly, a session is understood as a group of activities performed by a user when he is navigating through a given site. To identify the sessions from the raw data is a complex step, because the server logs do not always contain all the information needed. In this work, pattern discovery means applying the introduced frequent Sequential pattern discovery methods to the log data. For this reason the data have to be converted in the pre-processing phase such that the output of the conversion can be used as the input of the algorithms. Pattern analysis means understanding the results obtained by the algorithms and drawing conclusions. The motivation behind pattern analysis is to filter out uninteresting rules or patterns from the set found in the pattern discovery phase. The exact analysis methodology is usually governed by the application for which Web mining is done. The most common form of pattern analysis consists of a knowledge query mechanism such as SQL. Visualization techniques, such as graphing patterns or assigning colours to different values, can often highlight overall patterns or trends in the data. Content and structure information can be used to filter out patterns containing pages of a certain usage type, content type, or pages that match a certain hyperlink structure.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
1. GIỚI THIỆUKhám phá mẫu tuần tự giới thiệu trong [2] là một trong những phương pháp khai thác dữ liệu. Không chính thức, mô hình tuần tự là subsequence xảy ra thường xuyên nhất trong chuỗi của bộ mặt hàng. Trong số nhiều đề xuất thứ tự khai thác mô hình thuật toán, đa số được thiết kế để khám phá tất cả các mẫu tuần tự trên người dùng chỉ định ngưỡng tối thiểu hỗ trợ. Trong bài này, chúng tôi khám phá một mô hình kỹ thuật thường xuyên tự mới, được gọi là AWAPT (Adaptive Web Access mẫu cây), cho khai thác mỏ FSP...1.1 web khai thác phương pháp tiếp cậnKhai thác dữ liệu trang Web trên toàn thế giới bao gồm nội dung khai thác mỏ, cấu trúc liên kết và khai thác mỏ, vàsử dụng khai thác mỏ. Tất cả các phương pháp tiếp cận ba cố gắng để trích xuất các kiến thức từ các trang Web, tạo ra một số kết quả hữu ích từ các kiến thức chiết xuất và áp dụng các kết quả cho một số vấn đề thế giới thực. Hai lần đầu tiên áp dụng các kỹ thuật khai thác dữ liệu cho nội dung trang Web và các cấu trúc siêu liên kết, tương ứng. Cách tiếp cận thứ ba, sử dụng Web khai thác mỏ, chủ đề của bài viết này, là việc áp dụng kỹ thuật khai thác dữ liệu để sử dụng các bản ghi của lớn Web dữ liệu kho để tạo ra kết quả có thể được áp dụng cho nhiều đối tượng thực tế, chẳng hạn như cải thiện các trang Web/trang, định kiến nghị chủ đề hoặc sản phẩm bổ sung, các nghiên cứu hành vi người dùng/khách hàng, vv. A Web sử dụng khai thác hệ thống phải có khả năng thực hiện chức năng chính năm: i) dữ liệu thu thập, ii) dữ liệu chuẩn bị, iii) chuyển hướng mô hình khám phá, iv) mô hình phân tích và hình dung, và v) mô hình ứng dụng.Khai thác mỏ web có thể được phân loại thành ba tầng lớp khác nhau dựa trên đó một phần của trang Web là để được khai thác. Ba loại là khai thác nội dung (i) Web, (ii) Web cấu trúc mỏ và khai thác mỏ (iii) Web sử dụng.1.2 web khai thác nội dung là nhiệm vụ phát hiện ra thông tin hữu ích có sẵn trên mạng. Có những loại khác nhau của nội dung trang Web mà có thể cung cấp thông tin hữu ích cho người dùng, ví dụ như đa phương tiện dữ liệu, cấu trúc (tức là tài liệu XML), bán cấu trúc (tức là tài liệu HTML) và không có cấu trúc dữ liệu (tức là đồng bằng văn bản). Mục đích của khai thác nội dung Web là cung cấp một cơ chế hiệu quả để giúp người dùng tìm thấy thông tin họ tìm kiếm. Khai thác nội dung web bao gồm nhiệm vụ của tổ chức và cụm các tài liệu và cung cấp các công cụ tìm kiếm để truy cập các tài liệu khác nhau của từ khóa, thể loại, nội dung vv.1.3 web cấu trúc mỏ là quá trình phát hiện ra cấu trúc siêu liên kết trong trang Web. Thực tế, trong khi khai thác nội dung Web tập trung vào các thông tin trong tài liệu, Web cấu trúc khai thác phát hiện ra các cấu trúc liên kết ở mức độ giữa hai tài liệu. Mục đích là để xác định các thẩm quyền và các trang Trung tâm cho một chủ đề nhất định. Uỷ quyền trang chứa thông tin hữu ích, và được hỗ trợ bởi một số liên kết trỏ đến nó, có nghĩa là các trang được đánh giá cao tham chiếu. Một trang có nhiều tham khảo liên kết có nghĩa là nội dung của trang này là hữu ích, thích hợp hơn và đáng tin cậy có thể. Trung tâm là trang Web có chứa nhiều liên kết đến trang uỷ quyền, do đó họ giúp đỡ trong cụm các nhà chức trách. Web cấu trúc khai thác có thể đạt được chỉ trong một cổng đơn hoặc cũng trên toàn bộ trang Web. Khai thác cấu trúc của các trang Web hỗ trợ nhiệm vụ khai thác nội dung Web. Sử dụng các thông tin về cấu trúc của trang Web, tra cứu tài liệu có thể được thực hiện hiệu quả hơn, và độ tin cậy và sự liên quan của các tài liệu tìm thấy có thể lớn hơn. Cơ cấu đồ thị của các trang web có thể được khai thác bởi Web khai thác cấu trúc để cải thiện hiệu suất của thông tin tra cứu và để cải thiện phân loại của các tài liệu.1.4 web sử dụng khai thácCó ba loại tệp nhật ký có thể được sử dụng cho Web sử dụng khai thác. Tệp nhật kýlưu trữ máy chủ bên, phía khách hàng và trên các máy chủ proxy. Bởi có hơn một nơi để lưu trữ thông tin chuyển hướng mô hình của người sử dụng làm cho quá trình khai thác mỏ khó khăn hơn. Kết quả thực sự đáng tin cậy có thể thu được chỉ nếu có dữ liệu từ tất cả ba loại tệp nhật ký. Lý do cho việc này là phía máy chủ không có chứa các hồ sơ của các đường dẫn truy cập trang Web được lưu trữ trên các máy chủ proxy hoặc trên phía khách hàng. Bên cạnh đó các tập tin đăng nhập trên máy chủ, mà trên máy chủ proxy cung cấp thông tin bổ sung. Tuy nhiên, các yêu cầu trang được lưu trữ ở phía khách hàng là mất tích. Tuy nhiên, nó là có vấn đề để thu thập tất cả các thông tin từ phía khách hàng. Do đó, hầu hết các công việc của thuật toán dựa chỉ dữ liệu bên máy chủ. Một số thuật toán khai thác dữ liệu thường được sử dụng cho Web sử dụng khai thác là Hiệp hội quy tắc khai thác, trình tự khai thác mỏ và clustering.2. web Access mô hình khai thác mỏWeb Access pattern mining is also called as Web usage mining. Web usage mining, from the data mining aspect, is the task of applying data mining techniques to discover usage patterns from Web data in order to understand and better serve the needs of users navigating on the Web [13]. As every data mining task, the process of Web usage mining also consists of three main steps: (i) pre-processing, (ii) pattern discovery and (iii) pattern analysis. The pre-processing step contains three separate phases. Firstly, the collected data must be cleaned, which means that graphic and multimedia entries are removed. Secondly, the different sessions belonging to different users should be identified. Thirdly, a session is understood as a group of activities performed by a user when he is navigating through a given site. To identify the sessions from the raw data is a complex step, because the server logs do not always contain all the information needed. In this work, pattern discovery means applying the introduced frequent Sequential pattern discovery methods to the log data. For this reason the data have to be converted in the pre-processing phase such that the output of the conversion can be used as the input of the algorithms. Pattern analysis means understanding the results obtained by the algorithms and drawing conclusions. The motivation behind pattern analysis is to filter out uninteresting rules or patterns from the set found in the pattern discovery phase. The exact analysis methodology is usually governed by the application for which Web mining is done. The most common form of pattern analysis consists of a knowledge query mechanism such as SQL. Visualization techniques, such as graphing patterns or assigning colours to different values, can often highlight overall patterns or trends in the data. Content and structure information can be used to filter out patterns containing pages of a certain usage type, content type, or pages that match a certain hyperlink structure.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
1. GIỚI THIỆU
Một trong những phương pháp khai thác dữ liệu là việc phát hiện mô hình tuần tự giới thiệu trong [2]. Thức, mô hình tuần tự là của dãy con thường xuyên nhất xảy ra trong trình tự của các bộ các mặt hàng. Trong số rất nhiều các thuật toán mô hình khai thác tuần tự đề xuất, hầu hết trong số họ được thiết kế để phát hiện tất cả các mẫu tuần tự vượt quá một ngưỡng hỗ trợ người dùng quy định tối thiểu. Trong bài báo này, chúng tôi khám phá một kỹ thuật mới mô hình chuỗi thường xuyên gọi AWAPT (Adaptive Web Access Pattern Tree), khai thác FSP .. 1.1 Mining Web Phương pháp tiếp cận World Wide Khai thác dữ liệu Web bao gồm các nội dung khai thác mỏ, khai thác cấu trúc siêu liên kết, và khai thác sử dụng. Tất cả ba cách tiếp cận cố gắng để trích xuất các kiến thức từ các Web, sản xuất một số kết quả hữu ích từ những kiến thức chiết xuất, và áp dụng các kết quả nhất định các vấn đề thế giới thực. Hai đầu tiên áp dụng các kỹ thuật khai thác dữ liệu để nội dung trang web và các cấu trúc liên kết, tương ứng. Cách tiếp cận thứ ba, khai thác sử dụng Web, chủ đề của bài viết này, là việc áp dụng các kỹ thuật khai thác dữ liệu để các bản ghi sử dụng kho dữ liệu Web lớn để tạo ra kết quả có thể được áp dụng cho nhiều đối tượng thực tế, chẳng hạn như cải thiện các trang Web / trang, làm cho chủ đề hoặc sản phẩm bổ sung các khuyến nghị, các nghiên cứu sử dụng / hành vi khách hàng, vv Một Web sử dụng hệ thống khai thác phải có khả năng thực hiện năm chức năng chính: i) thu thập dữ liệu, ii) chuẩn bị dữ liệu, iii) phát hiện mô hình chuyển hướng, iv) mô hình phân tích và trực quan, và v) các ứng dụng mẫu. khai thác Web có thể được phân loại thành ba lớp khác nhau dựa vào một phần của Web là được khai thác. Ba loại này là (i) khai thác nội dung Web, (ii) khai thác cấu trúc Web và (iii) sử dụng Web khai thác mỏ. Khai thác nội dung Web 1.2 là nhiệm vụ khám phá ra thông tin hữu ích có sẵn trên mạng. Có nhiều loại khác nhau của nội dung Web có thể cung cấp thông tin hữu ích cho người sử dụng, cho dữ liệu đa phương tiện ví dụ, cấu trúc (tức là tài liệu XML), (tức là tài liệu HTML) bán cấu trúc và dữ liệu phi cấu trúc (ví dụ như văn bản gốc). Mục đích của khai thác nội dung Web là để cung cấp một cơ chế hiệu quả để giúp người dùng tìm thấy những thông tin mà họ tìm kiếm. Khai thác nội dung Web có nhiệm vụ tổ chức và phân nhóm các tài liệu và cung cấp công cụ tìm kiếm để truy cập các tài liệu khác nhau bằng các từ khóa, danh mục, nội dung, vv 1.3 Web khai thác kết cấu là quá trình khám phá cấu trúc của các siêu liên kết trong web. Thực tế, trong khi khai thác nội dung Web tập trung vào các thông tin bên trong bản tài liệu, khai thác cấu trúc Web phát hiện ra các cấu trúc liên kết ở cấp liên tài liệu. Mục đích là để xác định các trang có thẩm quyền và các trung tâm cho một chủ đề nhất định. Trang Authoritative chứa thông tin hữu ích, và được hỗ trợ bởi một số liên kết trỏ đến nó, có nghĩa là các trang này được tham chiếu cao. Một trang có rất nhiều các siêu liên kết tham chiếu nghĩa là nội dung của trang này là hữu ích, thích hợp hơn và có thể tin cậy. Hubs là các trang web có chứa nhiều liên kết đến các trang có thẩm quyền, do đó họ giúp đỡ trong phân nhóm các nhà chức trách. Khai thác cấu trúc Web có thể đạt được chỉ trong một cổng duy nhất hoặc còn trên toàn bộ trang web. Khai thác cấu trúc của Web hỗ trợ nhiệm vụ khai thác nội dung Web. Sử dụng các thông tin về cấu trúc của Web, việc thu hồi tài liệu có thể được thực hiện hiệu quả hơn, và độ tin cậy và phù hợp của các tài liệu được tìm thấy có thể lớn hơn. Các cấu trúc đồ thị của web có thể bị khai thác bởi Web khai thác cấu trúc để cải thiện hiệu suất của việc thu hồi thông tin và để cải thiện phân loại các tài liệu. Khai thác sử dụng 1.4 Web Có ba loại tập tin log có thể được sử dụng để khai thác sử dụng Web . Đăng nhập tập tin được lưu trữ trên máy chủ bên, về phía khách hàng và trên các máy chủ proxy. Bởi có nhiều hơn một nơi để lưu trữ các thông tin của mẫu chuyển hướng của người sử dụng làm cho quá trình khai thác khó khăn hơn. Thực sự đáng tin cậy kết quả có thể đạt được chỉ khi người ta có dữ liệu từ tất cả ba loại tập tin log. Lý do cho điều này là phía máy chủ không chứa hồ sơ của những người truy cập trang web được lưu trữ trên các máy chủ proxy hoặc trên các mặt hàng. Bên cạnh đó các tập tin đăng nhập trên máy chủ, mà trên máy chủ proxy cung cấp thêm thông tin. Tuy nhiên, các yêu cầu trang được lưu trữ trong các mặt hàng đang mất tích. Tuy nhiên, nó là vấn đề để thu thập tất cả các thông tin từ phía khách hàng. Vì vậy, hầu hết các thuật toán làm việc dựa chỉ các dữ liệu phía máy chủ. Một số thuật toán khai thác dữ liệu thường được sử dụng để khai thác sử dụng Web là liên kết khai thác mỏ quy định, khai thác tự và clustering. 2. Mô hình truy cập Web Mining Web khai thác mô hình Access cũng được gọi là khai thác sử dụng Web. Khai thác sử dụng Web, từ khía cạnh khai thác dữ liệu, là nhiệm vụ của việc áp dụng các kỹ thuật khai thác dữ liệu để khám phá mô hình sử dụng dữ liệu từ Web để hiểu và phục vụ tốt hơn nhu cầu của người sử dụng điều hướng trên Web [13]. Như mọi công việc khai thác dữ liệu, quá trình khai thác sử dụng Web cũng bao gồm ba bước chính: (i) tiền xử lý, (ii) phát hiện mẫu và (iii) phân tích mẫu. Các bước tiền xử lý bao gồm ba giai đoạn riêng biệt. Thứ nhất, các dữ liệu thu được phải được làm sạch, có nghĩa là mục đồ họa và đa phương tiện được loại bỏ. Thứ hai, các buổi khác nhau thuộc người dùng khác nhau cần được xác định. Thứ ba, một phiên được hiểu như là một nhóm các hoạt động được thực hiện bởi một người dùng khi ông là điều hướng thông qua một trang web nhất định. Để xác định phiên từ dữ liệu thô là một bước phức tạp, bởi vì các bản ghi máy chủ không luôn luôn có chứa tất cả các thông tin cần thiết. Trong tác phẩm này, phát hiện mô hình có nghĩa là áp dụng các phương pháp phát hiện mô hình tuần tự thường xuyên giới thiệu với các dữ liệu đăng nhập. Vì lý do này, các dữ liệu đã được chuyển đổi trong giai đoạn tiền xử lý như vậy mà đầu ra của chuyển đổi có thể được sử dụng như là đầu vào của thuật toán. Phân tích mô hình có nghĩa là sự hiểu biết các kết quả thu được bằng các thuật toán và kết luận vẽ. Động cơ đằng sau phân tích mô hình là để lọc ra các quy tắc không thú vị hoặc các mẫu từ các thiết lập được tìm thấy trong giai đoạn khám phá mô hình. Các phương pháp phân tích chính xác thường bị chi phối bởi các ứng dụng mà khai thác Web được thực hiện. Các hình thức phổ biến nhất của phân tích mô hình bao gồm một cơ chế truy vấn kiến thức như SQL. Kỹ thuật trực quan, chẳng hạn như vẽ đồ mô hình hoặc gán các màu cho các giá trị khác nhau, thường có thể làm nổi bật mô hình tổng thể hoặc các xu hướng trong dữ liệu. Nội dung và cấu trúc thông tin có thể được sử dụng để lọc ra các mẫu có chứa các trang của một loại sử dụng nhất định, kiểu nội dung, hoặc trang phù hợp với một cấu trúc siêu liên kết nhất định.























đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: