ψi≡p yi = 1jxi ð Þ=exp w0 + wTxi 1 + exp w0 + wTxi  ð1Þwhere w0∈R  dịch - ψi≡p yi = 1jxi ð Þ=exp w0 + wTxi 1 + exp w0 + wTxi  ð1Þwhere w0∈R  Việt làm thế nào để nói

ψi≡p yi = 1jxi ð Þ=exp w0 + wTxi 

ψi≡p yi = 1jxi ð Þ=
exp w0 + wTxi
 
1 + exp w0 + wTxi
  ð1Þ
where w0∈R and w∈Rd are the LR intercept and coefficients
respectively. For a set of N independent labeled data points, {xi,
yi} i=1
N , the log-likelihood of the class labels can be written as
Eq. (2):
l w0;w ð Þ = Σ
n
i=1
½ 1−yi ð Þlog 1−ψi ð Þ+ yi logψi ð2Þ
To maximize the log-likelihood in Eq. (2), a standard optimization
approach can be employed, since the gradient (and Hessian) of Eq. (2)
with respect to {w0,w} can be readily calculated. Once the LR
parameters {w0,w} have been learned, the probability that an
unlabeled testing data point xi belongs to each class can be obtained
using Eq. (1).
3.6. Probabilistic neural network (PNN)
PNN is a feed-forward NN involving a one pass training algorithm
used for classification and mapping of data. PNN was introduced by
Specht [43] in 1990. It is a pattern classification network based on the
classical Bayes classifier, which is statistically an optimal classifier that
seeks to minimize the risk of misclassification. Any pattern classifier
places each observed data vector x=[x1, x2, x3 . . . xN]T in one of the
predefined classes ci, i=1, 2,..., m where m is the number of possible
classes. The effectiveness of any classifier is limited by the number of
data elements that the vector x can have and the number of possible
classes m. The classical Bayes pattern classifier [40] implements the
Bayes conditional probability rule that the probability P(ci|x) of x
being in class ci is given by:
P ci ð jxÞ =
P xjci ð ÞP ci ð Þ
Σ m
j=1
P xjcj
 
P cj
  ð3Þ
where P(x|ci) is the conditioned probability density function of x
given set ci, P(cj) is the probability of drawing data from class cj. Vector
x is said to belong to a particular class ci, if P(ci|x)NP(cj|x), ∀ j=1, 2,...,
m and j≠i. This input x is fed into each of the patterns in the pattern
layer. The summation layer computes the probability P(ci|x) that the
given input x is included in each of the classes ci that is represented by
the patterns in the pattern layer. The output layer selects the class for
which the highest probability is obtained in the summation layer. The
input is then made to belong to this class. The effectiveness of the
network in classifying input vectors depends on the value of the
smoothing parameter.
4. Feature selection
Feature selection is critical to data mining and knowledge based
authentication. The problem of feature selection has been well studied
in areas where datasets with a large number of features are available,
including machine learning, pattern recognition, and statistics.
Piramuthu [36] observed that about 80% of the resources in a majority
of data mining applications are spent on cleaning and preprocessing
the data, and developed a new feature selection method based on
Hausdorff distance for analyzing web traffic data. Feature selection is
of paramount importance for any learning algorithm which when
poorly done (i.e., a poor set of features is selected) may lead to
problems related to incomplete information, noisy or irrelevant
features, not the best set/mix of features, among others [45]. Mladenic
and Grobelnik [31] reviewed various feature selection methods in the
context of web mining. Chen and Liginlal [11] developed a maximum
entropy based feature selection technique for knowledge based
authentication.
In this study, we employed a feature selection phase by using the
simple t-statistic technique. t-statistic is one of the efficient feature
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Ψi≡p yi = 1jxi ð Þ =EXP w0 + wTxi 1 + exp w0 + wTxið1Þnơi w0∈R và w∈Rd là LR chặn và hệ sốtương ứng. Cho một tập hợp N độc lập có nhãn dữ liệu điểm, {xi,Yi} i = 1N, khả năng đăng nhập nhãn lớp có thể được viết dưới dạngEQ. (2):l w0; w ð Þ = Σni = 1½ 1−yi ð Þlog 1−ψi ð Þ + yi logψi ð2ÞĐể tối đa hóa khả năng đăng nhập trong Eq. (2), một tối ưu hóa tiêu chuẩnphương pháp tiếp cận có thể làm việc, kể từ khi gradient (và Hessian) của Eq. (2)Đối với {w0 w} có thể được tính dễ dàng. Một khi LRtham số {w0 w} đã được học, xác suất mà mộtổ dữ liệu thử nghiệm điểm xi thuộc về mỗi lớp có thể thu đượcsử dụng Eq. (1).3.6. xác suất mạng nơ-ron (PNN)PNN là vượt qua một NN nuôi tiến liên quan đến một trong những giải thuật đào tạosử dụng bản đồ dữ liệu và phân loại. PNN được giới thiệu bởiSpecht [43] năm 1990. Nó là một mạng lưới phân loại mô hình dựa trên cáccổ điển Bayes loại thống kê là một loại tối ưu màTìm kiếm để giảm thiểu rủi ro của misclassification. Bất kỳ loại mô hìnhnhững nơi từng quan sát dữ liệu vectơ x = [x1, x2, x3... xN] T thuộc một trong cácđược xác định trước các lớp ci, i = 1, 2,..., m mà m là số lượng có thểCác lớp học. Hiệu quả của bất kỳ loại được giới hạn bởi số lượngphần tử dữ liệu mà vectơ x có thể và số lượng có thểCác lớp học m. Bayes cổ điển mẫu loại [40] thực hiện cácXác suất có điều kiện Bayes cai trị mà xác suất P(ci|x) xđang trong lớp ci được cho bởi:P ci ð jxÞ =P xjci ð ÞP ci ð ÞΣ mj = 1P xjcj P cjð3Þnơi P(x|ci) là hàm mật độ xác suất có điều kiện xthiết lập ci, P(cj) là xác suất của bản vẽ các dữ liệu từ lớp cj. Vectorx được cho là thuộc về một lớp học đặc biệt ci, nếu P(ci|x)NP(cj|x), ∀ j = 1, 2,...,m và j≠i. Đầu vào này x đưa vào mỗi mẫu trong các mô hìnhlớp. Tổng kết lớp tính xác suất P(ci|x) mà cáccung cấp đầu vào x được bao gồm trong mỗi ci lớp đó được đại diện bởiCác mô hình trong mô hình lớp. Đầu ra lớp chọn lớp chomà xác suất cao nhất đạt được trong tổng kết lớp. Cácđầu vào sau đó đã thuộc về lớp học này. Hiệu quả của cácmạng lưới phân loại đầu vào vectơ phụ thuộc vào giá trị của cáclàm mịn các tham số.4. tính năng lựa chọnLựa chọn tính năng là quan trọng để khai thác dữ liệu và kiến thức dựa trênxác thực. Vấn đề lựa chọn tính năng đã được nghiên cứutại các khu vực nơi datasets với một số lớn các tính năng có sẵn,bao gồm máy học tập, công nhận mẫu thống kê.Piramuthu [36] quan sát thấy rằng khoảng 80% các nguồn tài nguyên trong một đa sốdữ liệu ứng dụng khai thác mỏ được chi tiêu ngày làm sạch và tiền xử lýcác dữ liệu, và phát triển một phương pháp lựa chọn tính năng mới dựa trênHausdorff các khoảng cách cho việc phân tích dữ liệu lưu lượng truy cập web. Lựa chọn tính năng làhết sức quan trọng cho bất kỳ thuật toán học mà khikém thực hiện (tức là một tập hợp người nghèo các tính năng được chọn) có thể dẫn đếnvấn đề liên quan đến thông tin không đầy đủ, ồn ào hoặc không thích hợptính năng, không nhất thiết lập/kết hợp của các tính năng, trong số những người khác [45]. Mladenicvà Grobelnik [31] xem xét phương pháp lựa chọn tính năng khác nhau trong cácbối cảnh của web khai khoáng. Chen và Liginlal [11] phát triển tối đadữ liệu ngẫu nhiên dựa trên tính năng lựa chọn kỹ thuật cho kiến thức dựa trênxác thực.Trong nghiên cứu này, chúng tôi sử dụng một giai đoạn lựa chọn tính năng bằng cách sử dụng cáckỹ thuật đơn giản t-thống kê. t-thống kê là một trong những tính năng hiệu quả
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
ψi≡p yi = 1jxi ð Þ =
exp W0 + wTxi
? ?
1 + exp W0 + wTxi
? ? ð1Þ
nơi w0∈R và w∈Rd là đánh chặn LR và hệ số
tương ứng. Đối với một bộ N điểm độc lập nhãn dữ liệu, {xi,
yi} i = 1
N, loga của nhãn lớp có thể được viết như
Eq. (2):
l W0; w ð Þ = Σ
n
i = 1
½ 1-yi ð Þlog 1-ψi ð Þ + yi logψi? ð2Þ
Để tối đa hóa loga trong phương. (2), tối ưu hóa tiêu chuẩn
phương pháp có thể được sử dụng, vì gradient (và Hessian) của phương trình. (2)
đối với {W0, w} có thể dễ dàng tính toán. Khi LR
thông số {W0, w} đã được học, xác suất một
không có nhãn kiểm tra dữ liệu điểm xi thuộc về mỗi lớp có thể thu được
bằng phương trình. (1).
3.6. Mạng lưới thần kinh xác suất (PNN)
PNN là một NN feed-forward liên quan đến một thuật toán huấn luyện một đường chuyền
sử dụng để phân loại và lập bản đồ dữ liệu. PNN đã được giới thiệu bởi
Specht [43] vào năm 1990. Nó là một mạng lưới mô hình phân loại dựa trên
Bayes phân loại cổ điển, đó là thống kê một phân loại tối ưu mà
tìm cách để giảm thiểu nguy cơ phân loại sai. Bất kỳ mô hình phân loại
nơi từng quan sát dữ liệu vector x = [x1, x2, x3. . . xN] T tại một trong những
ci lớp được xác định trước, i = 1, 2, ..., m trong đó m là số thể
lớp. Tính hiệu quả của bất kỳ phân loại được giới hạn bởi số lượng các
yếu tố dữ liệu vector x có thể có và số lượng có thể
lớp m. Bộ phân loại mô hình Bayes cổ điển [40] thực hiện các
quy tắc xác suất có điều kiện Bayes rằng xác suất P (ci | x) của x
là trong lớp ci được tính bằng:
P ci ð jxÞ =
P xjci ð THP ci ð Þ
Σ m
j = 1
P xjcj
? ?
P cj
? ? ð3Þ
đó P (x | ci) là lạnh hàm mật độ xác suất x
cho bộ ci, P (cj) là xác suất rút dữ liệu từ lớp cj. Vector
x được cho là thuộc về một ci lớp học đặc biệt, nếu P (ci | x) NP (cj | x), ∀ j = 1, 2, ...,
m và j ≠ i. Đầu vào này x được đưa vào từng mô hình trong mô hình
lớp. Các lớp tổng kết tính xác suất P (ci | x) là
đầu vào cho x được bao gồm trong mỗi ci lớp đó được đại diện bởi
các mẫu trong các lớp mô hình. Các lớp ra chọn lớp cho
mà xác suất cao nhất thu được trong lớp tổng kết. Các
đầu vào được sau đó thực hiện là thuộc nhóm này. Tính hiệu quả của
mạng lưới trong việc phân loại các vector đầu vào phụ thuộc vào giá trị của các
thông số làm mịn.
4. Tính năng lựa chọn
lựa chọn tính năng là rất quan trọng để khai thác dữ liệu và dựa trên kiến thức
xác thực. Vấn đề lựa chọn tính năng này đã được nghiên cứu
trong lĩnh vực mà bộ dữ liệu với một số lượng lớn các tính năng có sẵn,
bao gồm cả máy tính học tập, nhận dạng mẫu, và thống kê.
Piramuthu [36] quan sát thấy rằng khoảng 80% các nguồn lực trong đa số
các ứng dụng khai thác dữ liệu được chi tiêu cho sạch và tiền xử lý
dữ liệu, và phát triển một phương pháp lựa chọn tính năng mới dựa trên
Hausdorff khoảng cách cho việc phân tích dữ liệu truy cập web. Lựa chọn tính năng này là
hết sức quan trọng đối với bất kỳ thuật toán học mà khi
thực hiện kém (ví dụ, một bộ nghèo tính năng được chọn) có thể dẫn đến
các vấn đề liên quan đến thông tin không đầy đủ, ồn ào hoặc không liên quan
các tính năng, không phải là tập hợp / kết hợp tốt nhất các tính năng, trong số những người khác [45]. Mladenic
và Grobelnik [31] xem xét phương pháp lựa chọn tính năng khác nhau trong
bối cảnh khai thác web. Chen và Liginlal [11] đã phát triển tối đa
entropy dựa kỹ thuật lựa chọn tính năng cho dựa trên kiến thức
xác thực.
Trong nghiên cứu này, chúng tôi sử dụng một giai đoạn lựa chọn tính năng bằng cách sử dụng các
kỹ thuật thống kê t đơn giản. t-thống kê là một trong những tính năng hiệu quả
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: