4.1.1.1.1. Naı¨ve Bayes Classifier (NB). The Naı¨ve Bayesclassifier is dịch - 4.1.1.1.1. Naı¨ve Bayes Classifier (NB). The Naı¨ve Bayesclassifier is Việt làm thế nào để nói

4.1.1.1.1. Naı¨ve Bayes Classifier

4.1.1.1.1. Naı¨ve Bayes Classifier (NB). The Naı¨ve Bayes
classifier is the simplest and most commonly used classifier.
Naı¨ve Bayes classification model computes the posterior probability
of a class, based on the distribution of the words in the
document. The model works with the BOWs feature extraction
which ignores the position of the word in the document. It uses
Bayes Theorem to predict the probability that a given feature
set belongs to a particular label.
PðlabeljfeaturesÞ ¼ PðlabelÞ  PðfeaturesjlabelÞ
PðfeaturesÞ ð3Þ
P(label) is the prior probability of a label or the likelihood that
a random feature set the label. P(features|label) is the prior
probability that a given feature set is being classified as a label.
P(features) is the prior probability that a given feature set is
occurred. Given the Naı¨ve assumption which states that all
features are independent, the equation could be rewritten as
follows:
PðlabeljfeaturesÞ ¼ PðlabelÞ  Pðf1jlabelÞ  ... ::  PðfnjlabelÞ
PðfeaturesÞ
ð4Þ
An improved NB classifier was proposed by Kang and Yoo
[36] to solve the problem of the tendency for the positive classification
accuracy to appear up to approximately 10% higher
than the negative classification accuracy. This creates a problem
of decreasing the average accuracy when the accuracies
of the two classes are expressed as an average value. They
showed that using this algorithm with restaurant reviews
narrowed the gap between the positive accuracy and the
negative accuracy compared to NB and SVM. The accuracy
is improved in recall and precision compared to both NB
and SVM.
4.1.1.1.2. Bayesian Network (BN). The main assumption of
the NB classifier is the independence of the features. The other
extreme assumption is to assume that all the features are fully
dependent. This leads to the Bayesian Network model which is
a directed acyclic graph whose nodes represent random
variables, and edges represent conditional dependencies. BN
is considered a complete model for the variables and their relationships.
Therefore, a complete joint probability distribution
(JPD) over all the variables, is specified for a model. In Text
mining, the computation complexity of BN is very expensive;
that is why, it is not frequently used [62].
BN was used by Herna´ndez and Rodrı´guez [40] to consider
a real-world problem in which the attitude of the author is
characterized by three different (but related) target variables.
They proposed the use of multi-dimensional Bayesian network
classifiers. It joined the different target variables in the same
classification task in order to exploit the potential relationships
between them. They extended the multi-dimensional classification
framework to the semi-supervised domain in order to take
advantage of the huge amount of unlabeled information available
in this context. They showed that their semi-supervised
multi-dimensional approach outperforms the most common
SA approaches, and that their classifier is the best solution
in a semi-supervised framework because it matches the actual
underlying domain structure.
4.1.1.1.3. Maximum Entropy Classifier (ME). The Maxent
Classifier (known as a conditional exponential classifier) converts
labeled feature sets to vectors using encoding. This
encoded vector is then used to calculate weights for each feature
that can then be combined to determine the most likely
label for a feature set. This classifier is parameterized by a
set of X{weights}, which is used to combine the joint features
that are generated from a feature-set by an X{encoding}. In
particular, the encoding maps each C{(featureset, label)} pair
to a vector. The probability of each label is then computed
using the following equation:
PðfsjlabelÞ ¼ dotprodðweights; encodeðfs; labelÞÞ
sumðdotprodðweights; encodeðfs; lÞÞforlinlabelsÞ
ð5Þ
ME classifier was used by Kaufmann [52] to detect parallel
sentences between any language pairs with small amounts of
training data. The other tools that were developed to automatically
extract parallel data from non-parallel corpora use language
specific techniques or require large amounts of training data. Their results showed that ME classifiers can produce
useful results for almost any language pair. This can
allow the creation of parallel corpora for many new languages.
4.1.1.2. Linear classifiers. Given X ¼ fx1 ...... :xng is the normalized
document word frequency, vector A ¼ fa1 ...... ang is
a vector of linear coefficients with the same dimensionality as
the feature space, and b is a scalar; the output of the linear
predictor is defined as p ¼ A:X þ b, which is the output of
the linear classifier. The predictor p is a separating hyperplane
between different classes. There are many kinds of linear classifiers;
among them is Support Vector Machines (SVM) [70,71]
which is a form of classifiers that attempt to determine good
linear separators between different classes. Two of the most
famous linear classifiers are discussed in the following
subsections.
4.1.1.2.1. Support Vector Machines Classifiers (SVM). The
main principle of SVMs is to determine linear separators in the
search space which can best separate the different classes. In
Fig. 3 there are 2 classes x, o and there are 3 hyperplanes A,
B and C. Hyperplane A provides the best separation between
the classes, because the normal distance of any of the data
points is the largest, so it represents the maximum margin of
separation.
Text data are ideally suited for SVM classification because
of the sparse nature of text, in which few features are irrelevant,
but they tend to be correlated with one another and
generally organized into linearly separable categories [72].
SVM can construct a nonlinear decision surface in the original
feature space by mapping the data instances non-linearly to an
inner product space where the classes can be separated linearly
with a hyperplane [73].
SVMs are used in many applications, among these applications
are classifying reviews according to their quality. Chen
and Tseng [26] have used two multiclass SVM-based
approaches: One-versus-All SVM and Single-Machine Multiclass
SVM to categorize reviews. They proposed a method
for evaluating the quality of information in product reviews
considering it as a classification problem. They also adopted
an information quality (IQ) framework to find informationoriented
feature set. They worked on digital cameras and
MP3 reviews. Their results showed that their method can accurately
classify reviews in terms of their quality. It significantly
outperforms state-of-the-art methods.
SVMs were used by Li and Li [57] as a sentiment polarity
classifier. Unlike the binary classification problem, they argued
that opinion subjectivity and expresser credibility should also
be taken into consideration. They proposed a framework that
provides a compact numeric summarization of opinions on
micro-blogs platforms. They identified and extracted the topics
mentioned in the opinions associated with the queries of users,
and then classified the opinions using SVM. They worked on
twitter posts for their experiment. They found out that the consideration
of user credibility and opinion subjectivity is essential
for aggregating micro-blog opinions. They proved that
their mechanism can effectively discover market intelligence
(MI) for supporting decision-makers by establishing a monitoring
system to track external opinions on different aspects
of a business in real time.
4.1.1.2.2. Neural Network (NN). Neural Network consists
of many neurons where the neuron is its basic unit. The inputs
to the neurons are denoted by the vector overlineXi which is the
word frequencies in the ith document. There are a set of
weights A which are associated with each neuron used in order
to compute a function of its inputs f(). The linear function of
the neural network is: pi ¼ A Xi. In a binary classification
problem, it is assumed that the class label of Xi is denoted
by yi and the sign of the predicted function pi yields the class
label.
Multilayer neural networks are used for non-linear boundaries.
These multiple layers are used to induce multiple piecewise
linear boundaries, which are used to approximate
enclosed regions belonging to a particular class. The outputs
of the neurons in the earlier layers feed into the neurons in
the later layers. The training process is more complex because
the errors need to be back-propagated over different layers.
There are implementations of NNs for text data which are
found in [74,75].
There is an empirical comparison between SVM and Artifi-
cial neural networks ANNs presented by Moraes and Valiati
[53] regarding document-level sentiment analysis. They made
this comparison because SVM has been widely and successfully
used in SA while ANNs have attracted little attention
as an approach for sentiment learning. They have discussed
the requirements, resulting models and contexts in which both
approaches achieve better levels of classification accuracy.
They have also adopted a standard evaluation context with
popular supervised methods for feature selection and weighting
in a traditional BOWs model. Their experiments indicated
that ANN produced superior results to SVM except for some
unbalanced data contexts. They have tested three benchmark
data sets on Movie, GPS, Camera and Books Reviews from
amazon.com. They proved that the experiments on movie
reviews ANN outperformed SVM by a statistically significant
difference. They confirmed some potential limitations of both
models, which have been rarely discussed in the SA literature,
like the computational cost of SVM at the running time and
ANN at the training time. They proved that using Information
gain (a computationally cheap feature selection Method) can
reduce the computational effort of both ANN and SVM without
significantly affecting the resulting classification accuracy.
SVM and NN can be used also for the classification of personal
relationships in biographical texts as presented.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
4.1.1.1.1. Naı¨ve Bayes loại (NB). Naı¨ve Bayesloại là loại đơn giản nhất và phổ biến nhất được sử dụng.Naı¨ve Bayes phân loại mô hình tính xác suất hậu nghiệmcủa một lớp học, dựa trên sự phân bố của các từ trong cáctài liệu. Các mô hình hoạt động với việc khai thác tính năng cungmà bỏ qua vị trí của từ trong tài liệu. Nó sử dụngĐịnh lý Bayes để dự đoán xác suất mà một tính năng nhất địnhthiết lập thuộc về một nhãn cụ thể.PðlabeljfeaturesÞ ¼ PðlabelÞ PðfeaturesjlabelÞPðfeaturesÞ ð3ÞP(Label) là trước khi xác suất của một nhãn hành trình hay khả năng màmột tính năng ngẫu nhiên thiết lập nhãn. P(features|Label) là từ trướcxác suất một tính năng nhất định thiết lập được phân loại như là một nhãn hiệu.P(Features) là trước khi xác suất mà một bộ tính năng nhất định làxảy ra. Đưa ra giả định Naı¨ve phát biểu rằng tất cảtính năng độc lập, phương trình có thể được viết lại nhưsau:PðlabeljfeaturesÞ ¼ PðlabelÞ Pðf1jlabelÞ...:: PðfnjlabelÞPðfeaturesÞð4ÞMột loại NB cải tiến được đề xuất bởi Kang và Yoo[36] để giải quyết vấn đề của các xu hướng cho việc phân loại tích cựcđộ chính xác để xuất hiện lên đến khoảng 10% cao hơnso với độ chính xác phủ định phân loại. Điều này tạo ra một vấn đềgiảm dần tính chính xác trung bình khi các phàmcủa hai lớp được thể hiện như một giá trị trung bình. Họđã chỉ ra rằng bằng cách sử dụng thuật toán này với nhà hàng nhận xétthu hẹp khoảng cách giữa tích cực độ chính xác vàđộ chính xác phủ định so với NB và SVM. Tính chính xácđược cải thiện trong thu hồi và độ chính xác so với cả hai NBvà SVM.4.1.1.1.2. mạng Bayes (BN). Giả định chính củaloại NB là độc lập của các tính năng. Kháccực giả định là giả định rằng tất cả các tính năng đầy đủphụ thuộc. Điều này dẫn đến các mô hình mạng Bayes làmột đồ thị acyclic đạo diễn các nút mà đại diện cho ngẫu nhiênbiến, và cạnh đại diện cho có điều kiện phụ thuộc. BNđược coi là một mô hình hoàn chỉnh cho các biến và các mối quan hệ.Do đó, là một phân bố xác suất liên hoàn chỉnh(JPD) trên tất cả các biến, được chỉ định cho một mô hình. Trong văn bảnkhai thác mỏ, sự phức tạp tính toán của BN là rất tốn kém;đó là lý do tại sao, nó không phải là thường được sử dụng [62].BN được sử dụng bởi Herna´ndez và Rodrı´guez [40] để xem xétmột vấn đề thế giới thực trong đó thái độ của tác giả làđặc trưng bởi ba mục tiêu khác nhau (nhưng có liên quan) biến.Họ đề xuất việc sử dụng của mạng Bayes đa chiềuMáy phân loại. Nó tham gia các biến mục tiêu khác nhau trong cùng mộtphân loại nhiệm vụ để khai thác các mối quan hệ tiềm nănggiữa chúng. Họ mở rộng việc phân loại đa chiềukhuôn khổ để giám sát bán tên miền để đilợi thế của số lượng lớn các ổ thông tin có sẵntrong bối cảnh này. Họ đã chỉ ra rằng của giám sát báncách tiếp cận đa chiều nhanh hơn so với phổ biến nhấtPhương pháp tiếp cận SA, và loại của họ là giải pháp tốt nhấttrong một khuôn khổ bán giám sát bởi vì nó phù hợp với thực tếcấu trúc tên miền nằm bên dưới.4.1.1.1.3. tối đa Entropy loại (tôi). Các MaxentChuyển đổi loại (được biết đến như là một loại mũ có điều kiện)có nhãn tính năng thiết lập vectơ sử dụng mã hóa. Điều nàyvector mã hóa sau đó được sử dụng để tính toán trọng lượng cho mỗi tính năngmà sau đó có thể được kết hợp để xác định khả năng đặtnhãn cho một tính năng thiết lập. Loại này tham số của mộttập hợp các X {trọng lượng}, được sử dụng để kết hợp các tính năng chungmà được tạo ra từ một bộ tính năng bởi một X {mã hóa}. Ởcụ thể, mã hoá bản đồ mỗi cặp C {(featureset, nhãn)}để một vector. Xác suất của mỗi nhãn sau đó tính toánsử dụng phương trình sau đây:PðfsjlabelÞ ¼ dotprodðweights; encodeðfs; labelÞÞsumðdotprodðweights; encodeðfs; lÞÞforlinlabelsÞð5ÞTÔI loại đã được sử dụng bởi Kaufmann [52] để phát hiện song songcâu giữa bất kỳ cặp ngôn ngữ với một lượng nhỏdữ liệu đào tạo. Các công cụ khác được phát triển để tự độngtrích xuất dữ liệu song song từ phòng không song song corpora sử dụng ngôn ngữkỹ thuật cụ thể hoặc yêu cầu một lượng lớn dữ liệu đào tạo. Kết quả của họ cho thấy rằng tôi máy phân loại có thể sản xuấtkết quả hữu ích cho hầu như bất kỳ cặp ngôn ngữ. Điều này có thểcho phép tạo ra song song corpora cho nhiều ngôn ngữ mới.4.1.1.2. Máy phân loại tuyến tính. Cho X ¼ fx1...: xng là các bình thườngtài liệu từ tần số, vector một ¼ fa1... bài làmột vector hệ tuyến tính với cùng một chiều nhưtính năng không gian, và b là một vô hướng; đầu ra của các tuyến tínhdự báo được định nghĩa là p ¼ A:X þ b, đó là đầu ra củaloại tuyến tính. P dự báo là một tách hyperplanegiữa các lớp khác nhau. Có rất nhiều các loại máy phân loại tuyến tính;trong số đó là hỗ trợ Vector máy (SVM) [70,71]đó là một hình thức của máy phân loại mà cố gắng để xác định tốtBuồng tách tuyến tính giữa các lớp khác nhau. Hai trong số nhiều nhấtMáy phân loại tuyến tính nổi tiếng được thảo luận trong sau đâyphần phụ.4.1.1.2.1. hỗ trợ Vector máy máy phân loại (SVM). CácCác nguyên tắc chính của SVMs là để xác định các buồng tách tuyến tính trong cáckhông gian tìm kiếm mà tốt nhất có thể tách các lớp khác nhau. ỞHình 3 có các lớp học 2 x, o và có là 3 hyperplanes A,B và C. Hyperplane A cung cấp sự chia tách tốt nhất giữaCác lớp học, bởi vì khoảng cách bình thường của bất kỳ dữ liệuđiểm là lớn nhất, do đó, nó đại diện cho lợi nhuận tối đa củatách.Dữ liệu văn bản lý tưởng cho các phân loại SVM vìbản chất thưa thớt của văn bản, trong đó vài tính năng là không liên quan,nhưng họ có xu hướng được tương quan với nhau vànói chung tổ chức vào tuyến tính phân chia thể loại [72].SVM có thể xây dựng một bề mặt phi tuyến quyết định trong bản gốctính năng space bằng cách ánh xạ các trường hợp dữ liệu phòng không linearly đến mộtsản phẩm bên trong không gian nơi các lớp học có thể được tách ra tuyến tínhvới một hyperplane [73].SVMs được sử dụng trong nhiều ứng dụng, trong số các ứng dụngphân loại đánh giá theo chất lượng của họ. Chenvà Tseng [26] đã sử dụng hai multiclass dựa trên SVMphương pháp tiếp cận: một so với tất cả SVM và đĩa đơn-máy MulticlassSVM để phân loại đánh giá. Họ đề xuất một phương phápđể đánh giá chất lượng của thông tin trong sản phẩm giáxem xét nó như là một vấn đề phân loại. Họ cũng đã thông quamột thông tin chất lượng (IQ) khuôn khổ để tìm informationorientedtính năng thiết lập. Họ làm việc trên máy ảnh kỹ thuật số vàĐánh giá MP3. Kết quả của họ cho thấy rằng phương pháp của họ có thể chính xácphân loại đánh giá về chất lượng của họ. Nó đáng kểnhanh hơn so với nhà nước-of-the-nghệ thuật phương pháp.SVMs được sử dụng bởi Li và Li [57] như một phân cực tình cảmloại. Không giống như vấn đề phân loại nhị phân, họ lập luậnrằng ý kiến chủ quan và expresser uy tín nên cũngđược đưa vào xem xét. Họ đề xuất một khuôn khổ màcung cấp một nhỏ gọn số tổng hợp ý kiến vềnền tảng vi-blog. Họ xác định và chiết xuất các chủ đềđược đề cập trong các ý kiến liên quan đến truy vấn của người dùng,và sau đó phân loại ý kiến bằng cách sử dụng SVM. Họ làm việc trênTwitter bài viết cho thử nghiệm của họ. Họ phát hiện ra rằng việc xem xétcủa người dùng tin cậy và ý kiến chủ quan là điều cần thiếtcho tập hợp các vi-blog ý kiến. Họ đã chứng minh rằngcơ chế của họ có hiệu quả có thể khám phá tình báo thị trường(MI) để hỗ trợ nhà ra quyết định bằng cách thiết lập một giám sátHệ thống theo dõi bên ngoài ý kiến trên khía cạnh khác nhaucủa một doanh nghiệp trong thời gian thực.4.1.1.2.2. thần kinh mạng (NN). Mạng nơ-ron bao gồmtế bào thần kinh nhiều nơi tế bào thần kinh là đơn vị cơ bản của nó. Đầu vàođể các tế bào thần kinh được biểu hiện bằng overlineXi vector mà là cáctừ các tần số trong tài liệu thứ i. Đó là một tập hợp cáctrọng lượng A có liên quan đến mỗi tế bào thần kinh được sử dụng đểđể tính toán một chức năng của yếu tố đầu vào f(). Chức năng tuyến tính củamạng nơ-ron là: pi ¼ A Xi. Trong một phân loại nhị phânvấn đề, nó giả định rằng nhãn lớp của Xi là biểu hiệnbởi yi và các dấu hiệu của pi dự đoán chức năng mang lại các lớp họcnhãn.Mạng nơ-ron đa lớp được sử dụng cho phi tuyến tính ranh giới.Các lớp nhiều được sử dụng để tạo ra nhiều piecewiseranh giới tuyến tính, được sử dụng để xác địnhkèm theo khu vực thuộc một lớp học đặc biệt. Kết quả đầu raCác tế bào thần kinh trong các lớp trước đó vào các tế bào thần kinh trongCác lớp sau này. Quá trình đào tạo là phức tạp hơn bởi vìCác lỗi cần phải được lan truyền trở lại lên lớp khác nhau.Có là hiện thực của NNs cho dữ liệu văn bản cóloài này có ở [74,75].Đó là một so sánh thực nghiệm giữa SVM và Artifi-mạng nơ-ron cial ANNs trình bày bởi Moraes và Valiati[53] về phân tích cấp tài liệu tình cảm. Họ đã thực hiệnso sánh này bởi vì SVM đã rộng rãi và thành côngđược sử dụng trong SA trong khi ANNs đã thu hút ít sự chú ýnhư là một cách tiếp cận học tập tình cảm. Họ đã thảo luậnCác yêu cầu, kết quả các mô hình và bối cảnh trong đó cả haiphương pháp tiếp cận đạt được các cấp độ tốt hơn của phân loại chính xác.Họ cũng đã thông qua một bối cảnh tiêu chuẩn đánh giá vớiphương pháp giám sát phổ biến cho tính năng lựa chọn và nặngtrong một mô hình cung truyền thống. Thí nghiệm của họ chỉ địnhANN sản xuất kết quả vượt trội SVM ngoại trừ một sốbối cảnh không cân bằng dữ liệu. Họ đã thử nghiệm ba điểm chuẩnbộ dữ liệu trên phim, GPS, Camera và sách đánh giá từAmazon.com. họ chứng minh rằng các thí nghiệm trên phimđánh giá ANN tốt hơn SVM bởi một thống kê quan trọngsự khác biệt. Họ xác nhận một số hạn chế tiềm năng của cả haiMô hình, mà đã được hiếm khi thảo luận trong các tài liệu SA,thích chi phí tính toán SVM tại thời gian chạy vàANN tại thời gian đào tạo. Họ đã chứng minh rằng bằng cách sử dụng thông tincó thể đạt được (một giá rẻ computationally tính năng lựa chọn phương pháp)giảm các nỗ lực tính toán của ANN và SVM mà không cóđáng kể ảnh hưởng đến tính chính xác kết quả của phân loại.SVM và NN có thể được sử dụng cũng để phân loại cá nhânmối quan hệ trong các văn bản tiểu sử là trình bày.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
4.1.1.1.1. Naive Bayes Classifier (NB). Các Naive Bayes
classifier là phân loại đơn giản nhất và thường được sử dụng nhất.
mô hình phân loại Naive Bayes tính xác suất hậu nghiệm
của một lớp, dựa vào sự phân bố của các từ trong
tài liệu. Các tác phẩm mô hình với các tính năng khai thác BOW
mà bỏ qua vị trí của từ trong văn bản. Nó sử dụng
Bayes Theorem để dự đoán xác suất mà một tính năng nhất định
tập hợp thuộc về một nhãn cụ thể.
PðlabeljfeaturesÞ ¼ PðlabelÞ? PðfeaturesjlabelÞ
PðfeaturesÞ ð3Þ
P (label) là xác suất trước của một nhãn hay khả năng mà
một tính năng ngẫu nhiên đặt nhãn. P (tính năng | label) là trước khi
xác suất mà một bộ tính năng nhất định được phân loại như là một nhãn.
P (tính năng) là xác suất trước đó một tập hợp đặc trưng nhất định
xảy ra. Với giả thiết ngây thơ trong đó nói rằng tất cả các
tính năng này là độc lập, các phương trình có thể được viết lại như
sau:
PðlabeljfeaturesÞ ¼ PðlabelÞ? Pðf1jlabelÞ? ... ::? PðfnjlabelÞ
PðfeaturesÞ
ð4Þ
Một cải thiện NB phân loại đã được đề xuất bởi Kang và Yoo
[36] để giải quyết các vấn đề của các xu hướng cho việc phân loại tích cực
chính xác xuất hiện lên đến khoảng 10% cao hơn
so với độ chính xác phân loại tiêu cực. Điều này tạo ra một vấn đề
của việc giảm độ chính xác trung bình khi độ chính xác
của hai lớp này được thể hiện như một giá trị trung bình. Họ
cho thấy rằng việc sử dụng thuật toán này với đánh giá nhà hàng
thu hẹp khoảng cách giữa các độ chính xác tích cực và
tiêu cực chính xác so với NB và SVM. Độ chính xác
được cải thiện trong thu hồi và độ chính xác so với cả NB
và SVM.
4.1.1.1.2. Mạng Bayesian (BN). Các giả thuyết chính của
phân loại NB là sự độc lập của các tính năng. Các khác
giả định cực đoan là giả định rằng tất cả các tính năng này là hoàn toàn
phụ thuộc. Điều này dẫn đến các mô hình Bayesian mạng mà là
một đồ thị acyclic đạo có các nút đại diện ngẫu nhiên
biến, và các cạnh đại diện phụ thuộc điều kiện. BN
được coi là một mô hình hoàn chỉnh cho các biến và các mối quan hệ của họ.
Vì vậy, một phân bố xác suất liên hoàn
(JPD) trên tất cả các biến, được chỉ định cho một mô hình. Trong bản
khai thác, mức độ phức tạp tính toán của BN là rất tốn kém;
đó là lý do tại sao, nó không được sử dụng thường xuyên [62].
BN đã được sử dụng bởi Herna'ndez và Rodrı'guez [40] để xem xét
một vấn đề thế giới, trong đó thái độ của tác giả được
đặc trưng bởi ba biến mục tiêu khác nhau (nhưng có liên quan).
Họ đã đề xuất việc sử dụng đa chiều mạng Bayesian
phân loại. Nó tham gia vào các biến mục tiêu khác nhau trong cùng một
nhiệm vụ phân loại nhằm khai thác các mối quan hệ tiềm năng
giữa chúng. Họ mở rộng các phân loại đa chiều
khuôn khổ để các miền bán giám sát để tận
dụng lợi thế của số lượng lớn các thông tin không có nhãn có sẵn
trong bối cảnh này. Họ cho thấy rằng bán giám sát của họ
tiếp cận đa chiều nhanh hơn so với thông thường nhất
phương pháp tiếp cận SA, và phân loại của họ là giải pháp tốt nhất
trong một khuôn khổ bán giám sát bởi vì nó phù hợp với thực tế
cấu trúc tên miền cơ bản.
4.1.1.1.3. Maximum Entropy Classifier (ME). Các Maxent
Classifier (được biết đến như một bộ phân loại theo cấp số nhân có điều kiện) Chuyển đổi
nhãn bộ tính năng để vectơ sử dụng mã hóa. Đây
vector mã hóa được sử dụng để tính toán trọng lượng cho mỗi tính năng
mà sau đó có thể được kết hợp để xác định khả năng nhất
nhãn cho một bộ tính năng. Phân loại này là tham số của một
tập hợp của X {} trọng lượng, được sử dụng để kết hợp các tính năng chung
được tạo ra từ một tính năng thiết lập bởi một X {} mã hóa. Trong
đó, mã hóa các bản đồ mỗi C {(featureset, nhãn)} cặp
với một vector. Xác suất của mỗi nhãn là sau đó được tính
bằng công thức sau:
PðfsjlabelÞ ¼ dotprodðweights; encodeðfs; labelÞÞ
sumðdotprodðweights; encodeðfs; lÞÞforlinlabelsÞ
ð5Þ
ME phân loại được sử dụng bởi Kaufmann [52] để phát hiện song song
giữa câu bất kỳ cặp ngôn ngữ với một lượng nhỏ
dữ liệu huấn luyện. Các công cụ khác đã được phát triển để tự động
trích xuất dữ liệu song song từ không song song sử dụng ngôn ngữ corpora
kỹ thuật cụ thể hoặc yêu cầu số lượng lớn các dữ liệu huấn luyện. Kết quả cho thấy rằng ME phân loại có thể sản xuất
các kết quả hữu ích cho hầu như bất kỳ cặp ngôn ngữ. Điều này có thể
cho phép tạo ra corpora song song cho nhiều ngôn ngữ mới.
4.1.1.2. Phân loại tuyến tính. Với X ¼ FX1 ......: xng là bình thường
tài liệu từ tần số, vector A ¼ FA1 ...... ang là
một vector của các hệ số tuyến tính với chiều giống như
các không gian đặc trưng, ​​và b là một vô hướng ; đầu ra của tuyến tính
dự đoán được định nghĩa là ¼ p A: X þ b, đó là sản phẩm của
sự phân loại tuyến tính. Các dự đoán p là một siêu phẳng phân cách
giữa các lớp học khác nhau. Có rất nhiều loại phân lớp tuyến tính;
trong số đó là Support Vector Machines (SVM) [70,71]
mà là một hình thức phân loại mà cố gắng để xác định tốt
dải phân cách tuyến tính giữa các lớp học khác nhau. Hai trong số hầu hết các
phân lớp tuyến tính nổi tiếng sẽ được thảo luận ở sau
phần phụ.
4.1.1.2.1. Support Vector Machines Classifiers (SVM). Các
nguyên tắc chính của SVMs là để xác định dải phân cách tuyến tính trong
không gian tìm kiếm tốt nhất mà có thể tách riêng các lớp học khác nhau. Trong
hình. 3 có 2 lớp x, o và có 3 siêu phẳng A,
B và C. siêu phẳng A cung cấp sự tách biệt nhất giữa
các lớp, bởi vì khoảng cách bình thường của bất kỳ dữ liệu
điểm là lớn nhất, do đó, nó đại diện cho lợi nhuận tối đa
tách.
dữ liệu văn bản được lý tưởng cho SVM phân loại vì
về bản chất thưa thớt của văn bản, trong đó có vài tính năng này là không thích hợp,
nhưng họ có xu hướng được tương quan với nhau và
thường được tổ chức thành các loại tuyến tính tách biệt [72].
SVM có thể xây dựng một phi tuyến mặt quyết định trong bản gốc
không gian đặc trưng bằng cách ánh xạ các trường hợp dữ liệu phi tuyến tính với một
không gian sản phẩm bên trong nơi các lớp học có thể được tách tuyến tính
với một siêu phẳng [73].
SVMs được sử dụng trong nhiều ứng dụng, trong số các ứng dụng này
được phân loại theo đánh giá của họ chất lượng. Chen
Tseng và [26] đã sử dụng hai SVM dựa trên nhiều lớp
cách tiếp cận: One-versus-Tất cả SVM và Single-Machine nhiều lớp
SVM để phân loại các ý kiến. Họ đã đề xuất một phương pháp
để đánh giá chất lượng của thông tin trong phần đánh giá sản phẩm
xem xét nó như là một vấn đề phân loại. Họ cũng đã thông qua
một chất lượng thông tin (IQ) khuôn khổ để tìm informationoriented
tính năng thiết lập. Họ đã làm việc trên các máy ảnh kỹ thuật số và
các ý kiến MP3. Kết quả cho thấy rằng phương pháp của họ có thể chính xác
phân loại đánh giá về chất lượng của họ. Nó đáng kể
nhanh hơn so với nhà nước-of-the-nghệ thuật phương pháp.
SVMs đã được sử dụng bởi Li và Li [57] là một tình cảm cực
phân loại. Không giống như các vấn đề phân loại nhị phân, họ lập luận
rằng ý kiến chủ quan và expresser uy tín cũng nên
được xem xét. Họ đề xuất một khuôn khổ mà
cung cấp một tổng kết số compact ý kiến về
vi-blog nền tảng. Họ đã xác định và trích xuất các chủ đề
được đề cập trong các ý kiến liên quan đến truy vấn của người dùng,
và sau đó phân loại các ý kiến sử dụng SVM. Họ đã làm việc trên
twitter bài cho thí nghiệm của mình. Họ phát hiện ra rằng việc xem xét
của người sử dụng sự tín nhiệm và tính chủ quan điểm là điều cần thiết
cho việc tập hợp micro-blog ý kiến. Họ đã chứng minh rằng
cơ chế hiệu quả của họ có thể khám phá thông tin thị trường
(MI) để hỗ trợ ra quyết định bằng cách thiết lập một giám sát
hệ thống để theo dõi ý kiến từ bên ngoài về các khía cạnh khác nhau
của một doanh nghiệp trong thời gian thực.
4.1.1.2.2. Neural Network (NN). Neural Network bao gồm
nhiều tế bào thần kinh, nơi các tế bào thần kinh là đơn vị cơ bản của nó. Các yếu tố đầu vào
để các tế bào thần kinh được biểu hiện bằng các overlineXi vector đó là
tần số từ trong tài liệu thứ i. Có một tập hợp các
trọng số A được kết hợp với mỗi tế bào thần kinh được sử dụng để
tính toán một chức năng của các đầu vào của nó f (). Các hàm tuyến tính của
các mạng thần kinh là: pi ¼ A Xi. Trong một phân loại nhị phân
vấn đề, ​​nó được giả định rằng các nhãn lớp của Xi được ký hiệu
bởi yi và các dấu hiệu của hàm pi dự đoán sản lượng các lớp
nhãn.
Multilayer mạng thần kinh được sử dụng cho ranh giới phi tuyến tính.
Những nhiều lớp được sử dụng để gây nhiều piecewise
ranh giới tuyến tính, được sử dụng để ước tính
khu vực kèm theo thuộc về một lớp học đặc biệt. Các kết quả đầu ra
của các tế bào thần kinh trong các lớp trước đó đưa vào tế bào thần kinh trong
các lớp sau. Quá trình đào tạo phức tạp hơn bởi vì
các lỗi cần phải được back-lan truyền qua các lớp khác nhau.
Có những hiện thực của NNS cho dữ liệu văn bản được
tìm thấy trong [74,75].
Có một thực nghiệm so sánh giữa SVM và Artifi-
mạng thần kinh tài ANNs trình bày bởi Moraes và Valiati
[53] về phân tích tâm lý tài liệu cấp. Họ đã
so sánh này vì SVM đã được rộng rãi và thành công
được sử dụng trong khi SA ANNs đã thu hút ít sự chú ý
như một cách tiếp cận để học hỏi về tình cảm. Họ đã thảo luận về
các yêu cầu, kết quả mô hình và bối cảnh mà trong đó cả hai
cách tiếp cận tốt hơn mức độ đạt được độ chính xác phân loại.
Họ cũng đã áp dụng một bối cảnh đánh giá chuẩn với
phương pháp giám sát phổ biến để lựa chọn tính năng và trọng lượng
trong một mô hình BOW truyền thống. Thí nghiệm của họ chỉ ra
rằng ANN cho kết quả vượt trội so với SVM trừ một số
bối cảnh dữ liệu không cân bằng. Họ đã thử nghiệm ba benchmark
bộ dữ liệu về phim, GPS, Camera và Sách Nhận xét ​​từ
amazon.com. Họ đã chứng minh rằng các thí nghiệm trên phim
đánh giá ANN vượt trội so với SVM bởi một ý nghĩa thống kê
khác biệt. Họ đã xác nhận một số hạn chế tiềm năng của cả hai
mô hình, mà rất ít khi được thảo luận trong văn học SA,
như chi phí tính toán của SVM lúc chạy và
ANN tại thời gian đào tạo. Họ đã chứng minh rằng việc sử dụng thông tin
thu được (một lựa chọn tính năng Phương pháp tính toán giá rẻ) có thể
làm giảm các nỗ lực tính toán của cả hai ANN và SVM mà không
ảnh hưởng đáng kể độ chính xác phân loại kết quả.
SVM và NN có thể được sử dụng cũng để phân loại các cá nhân
các mối quan hệ trong các văn bản tiểu sử được trình bày .
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: