following form:⎧if A • βˆ ≥ 0 : βˆ⎪⎨ β ∗ = if A2 • βˆ < 0 : βˆ + KAT A dịch - following form:⎧if A • βˆ ≥ 0 : βˆ⎪⎨ β ∗ = if A2 • βˆ < 0 : βˆ + KAT A Việt làm thế nào để nói

following form:⎧if A • βˆ ≥ 0 : βˆ⎪

following form:
⎧if A • βˆ ≥ 0 : βˆ
⎪⎨
β ∗ =

if A2 • βˆ < 0 : βˆ + KAT A2 KAT −1 (0 − A2 βˆ )
2 2

⎩if A • βˆ < 0 : βˆ + KAT AKAT −1 (0 − Aβˆ )



(25)
where K := (X T X )−1 and βˆ
(OLS) estimator


is the ordinary least squares


Fig. 3. NNORELM framework.


TABLE III
βˆ = KX T Y X † Y . (26)

Besides, the submatrix A2 is defined as

A1


CHARAC TERI S TICS OF THE BENCHMARK DATA SETS , ORDERED BY THE NUMBER O F CL A SSE S
A = A2

(27)

where A1 • βˆ ≥ 0 and A2 • βˆ < 0.
Trivially, if A • βˆ

≥ 0 holds then the solution of the OLS
problem is also solution of the ICLS one. Otherwise, according to [44], to ensure that β ∗ is a feasible solution to the ICLS problem, the following sufficient condition must hold:
if A2 • βˆ < 0 : A1 KAT • A2 KAT −1 (0 − A2 βˆ ) ≥ 0
2 2
if A • βˆ < 0 : [AKAT ]−1 (0 − Aβˆ ) ≥ 0. (28)

For the particular case of the constrained optimization problem defined in (23), the matrix A is equal to the identity matrix and the solution of the j th ICLS problem reduces to
⎧if



ˆ j ≥ 0 : ˆ j
T T
if A2 • ˆ

< 0 : ˆ

+ LAT A2 LAT −1
j j 2 2
j = T T

(29)

if ˆ j < 0 : 0

(0 − A2 ˆ j )
where L := (HT H)−1 and ˆ j is the solution of the corre- sponding j th OLS problem
ˆ j = LHT Y˜ j = H†Y˜ j (30)

with sufficient condition



IV. EXPERIMENT

A. Experimental Design
In this section, the experiments performed to validate the effectiveness of the model are discussed, introducing the
T 1

T data sets considered, the algorithms used for comparison,
if A2 • ˆ j < 0 : A1LAT • A2 LAT −

0 − A2 ˆ ≥ 0
2 2 j
if ˆ j < 0 : L−1 (0 − ˆ j ) ≥ 0. (31) The final padding matrix is defined row by row as
∗ = [ ∗] j =1,..., J . (32) Similar to the standard ELM, in the proposed neural
network, the hidden layer parameters need not be tuned
[19], [23]. ELM learning theory shows that the hidden nodes of SLFNN need not to be tuned and these parameters can be estimated randomly. According to the ELM learning the- ory, the parameters connecting the input layer to the hidden layer are generated randomly in the neural network pro- posed. In summary, the neural network for OR based on ELM [NNOR(ELM)] algorithm can be described as shown in Fig. 3.

the parameter values adopted, and the performance measures considered.
Following the recommendations of Gutiérrez et al. [45], the model is validated using two types of data sets: real OR data sets and discretized regression data sets. For the discretized regression data sets, the repository provided by Chu and Ghahramani [14] has been employed. The data sets provided by Chu and Ghahramani [14] are not real ordinal classification ones but regression problems, which are turned into ordinal classification discretizing the target variable into J
different bins with equal frequency. For these data sets, J = 5 and J = 10 bins are considered, to see the response of the
model with the increase of the problem complexity.
Table III shows the characteristics of the 16 data sets, including number of patterns, attributes and classes, and also the class distribution (number of patterns per class).

0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
hình thức sau đây:⎧If một • βˆ ≥ 0: βˆ⎪⎨ β ∗ = Nếu A2 • βˆ < 0: βˆ + KAT A2 KAT −1 (0 − A2 βˆ) 2 2⎪ ⎩If một βˆ • < 0: βˆ + KAT AKAT −1 (0 − Aβˆ) (25) nơi K: = −1 (X T X) và βˆCông cụ ước tính (OLS) là các tối thiểu bình thường Hình 3. NNORELM khuôn khổ.BẢNG III Βˆ = ĐIỆN T Y X † Y. (26)Bên cạnh đó, submatrix A2 được định nghĩa là A1 NHÂN TERI S TICS DỮ LIỆU ĐIỂM CHUẨN BỘ, Đà RA LỆNH BỞI SỐ O F CL S BẮC-TÂY BẮC A = A2 (27) nơi A1 • βˆ ≥ 0 và A2 • βˆ < 0. Trivially, nếu một βˆ • ≥ 0 sau đó giữ các giải pháp của các OLS vấn đề là giải pháp của ICLS một. Nếu không, theo [44], để đảm bảo rằng β ∗ là một giải pháp khả thi để vấn đề ICLS, điều kiện đủ sau phải giữ:Nếu A2 • βˆ < 0: A1 KAT • A2 KAT −1 (0 − A2 βˆ) ≥ 02 2Nếu một βˆ • < 0: [AKAT] −1 (0 − Aβˆ) ≥ 0. (28) Đối với trường hợp cụ thể của vấn đề tối ưu hóa hạn chế được xác định trong (23), Ma trận A là tương đương với nhận dạng ma trận và giải pháp của j th ICLS vấn đề giảm để ⎧If⎪⎪ Liên j ≥ 0: j liênT T Nếu A2 • liên < 0: liên + LAT A2 LAT −1 j j 2 2j = T T (29) ⎪Nếu liên j < 0: 0 (0 − A2 liên j) nơi L: = −1 (HT H) và liên j là giải pháp của j corre-sponding th OLS vấn đề Liên j = LHT Y˜ j = H†Y˜ j (30)với đủ điều kiện IV. THỬ NGHIỆMA. thử nghiệm thiết kếTrong phần này, các thí nghiệm được thực hiện để xác nhận tính hiệu quả của các mô hình được thảo luận, giới thiệu các T 1 T dữ liệu bộ xem xét, các thuật toán được sử dụng để so sánh, Nếu A2 • liên j < 0: A1LAT • A2 LAT − 0 − A2 LIÊN ≥ 0 2 2 jNếu liên j < 0: L−1 (0 − liên j) ≥ 0. (31) ma trận cuối cùng padding định nghĩa hàng bởi hàng là ∗ = [ ∗] j =1,..., J . (32) tương tự như tiêu chuẩn ELM, trong các đề xuất thần kinhmạng, các lớp ẩn tham số không cần được điều chỉnh[19], [23]. ELM học lý thuyết cho thấy rằng các nút ẩn của SLFNN cần phải được điều chỉnh và các tham số này có thể được ước tính ngẫu nhiên. Theo ELM học các - ory, các tham số kết nối đầu vào lớp lớp ẩn được tạo ra ngẫu nhiên trong pro mạng nơ-ron-đặt ra. Tóm lại, mạng nơ-ron cho hoặc ELM dựa trên [NNOR(ELM)] thuật toán có thể được mô tả như minh hoạ trong hình 3. Các giá trị tham số được thông qua, và xem xét các biện pháp hiệu suất.Sau các khuyến nghị của Gutiérrez et al. [45], các mô hình được xác nhận bằng cách sử dụng hai loại dữ liệu: thực OR dữ liệu bộ và hồi qui discretized bộ dữ liệu. Đối với các tập dữ liệu discretized hồi qui, kho cung cấp bởi Chu và Ghahramani [14] đã được sử dụng. Các tập dữ liệu được cung cấp bởi Chu và Ghahramani [14] là không thực sự tự phân loại những người nhưng vấn đề hồi quy, được biến thành phân loại tự discretizing mục tiêu biến thành Jkhác nhau thùng với tần suất như nhau. Cho các bộ dữ liệu, J = 5 và J = 10 thùng được coi là để xem phản ứng của cácMô hình với sự gia tăng của vấn đề phức tạp.Bảng III Hiển thị các đặc tính của các bộ dữ liệu 16, bao gồm số mô hình, thuộc tính và các lớp học, và cũng phân phối lớp (số mô hình mỗi lớp).
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
theo hình thức:
⎧if A • β ≥ 0: β
⎪⎨
β * = nếu A2 • β <0: β + A2 KAT KAT -1 (0 - A2 β) 2 2 ⎪ ⎩if A • β <0: β + KAT AKAT -1 (0 - Aư) (25) Trong đó K: = (XTX) -1 và β (OLS) ước lượng là bình phương nhỏ nhất Hình. 3. NNORELM khuôn khổ. TABLE III β = KX TYX † Y. (26) Bên cạnh đó, các submatrix A2 được định nghĩa là A1 Charac TERI S TIC CỦA TẬP dữ liệu điểm chuẩn, RA LỆNH CỦA SỐ CL A SSE S A = A2 (27) nơi A1 • β ≥ 0 và A2 • β <0. trivially, nếu A beta • ≥ 0 giữ thì giải pháp của OLS vấn đề cũng là giải pháp của một trong các ICLS. Nếu không, theo [44], để đảm bảo rằng β * là một giải pháp khả thi cho vấn đề ICLS, điều kiện đủ sau đây phải giữ: nếu A2 • β <0: A1 A2 • KAT KAT -1 (0 - A2 β) ≥ 0 2 2 nếu A • β <0: [AKAT] -1 (0 - Aư) ≥ 0. (28) Đối với các trường hợp cụ thể của vấn đề tối ưu hóa chế quy định tại (23), ma trận A bằng với nhận dạng ma trận và các giải pháp của vấn đề j ICLS giảm tới ⎧if ⎪ ⎪ j ≥ 0: j TT nếu A2 • <0: + A2 LAT LAT -1 jj 2 2 j = TT (29) ⎪ nếu j <0: 0 (0 - A2 j) trong đó L: = (HT H) -1 và j là giải pháp của sponding j corre thứ vấn đề OLS j = LHT Y~ j = H † Y~ j ( 30) với điều kiện đủ IV. THÍ NGHIỆM A. Thiết kế thí nghiệm Trong phần này, các thí nghiệm thực hiện để xác nhận tính hiệu quả của mô hình sẽ được thảo luận, giới thiệu T 1 T bộ dữ liệu được coi là, các thuật toán được sử dụng để so sánh, nếu A2 • j <0: A1LAT • A2 LẠT - 0 - A2 ≥ 0 2 2 j nếu j <0: L-1 (0 - j) ≥ 0. (31) Ma trận đệm cuối cùng được xác định theo từng hàng như * = [*] j = 1, ..., J. (32) Tương tự như các ELM tiêu chuẩn, trong thần kinh đề xuất mạng, các thông số lớp ẩn cần phải được điều chỉnh [19], [23]. Lý thuyết học ELM cho thấy rằng các nút ẩn của SLFNN không cần phải được điều chỉnh và các thông số này có thể được ước tính một cách ngẫu nhiên. Theo ELM học gì- Ory, các thông số kết nối các lớp đầu vào cho lớp ẩn được tạo ra ngẫu nhiên trong mạng nơron trình đặt ra. Tóm lại, các mạng nơron cho HOẶC dựa trên ELM [NNOR (ELM)] thuật toán có thể được mô tả như hình. 3. các giá trị tham số được thông qua, và các biện pháp thực hiện xem xét. Theo khuyến nghị của Gutiérrez et al. [45], mô hình được xác nhận bằng cách sử dụng hai loại bộ dữ liệu: bộ thực OR dữ liệu rời rạc và hồi quy tập hợp dữ liệu. Đối với các bộ dữ liệu hồi quy rời rạc, các kho lưu trữ được cung cấp bởi Chu và Ghahramani [14] đã được sử dụng. Các bộ dữ liệu được cung cấp bởi Chu và Ghahramani [14] không phải là những người thực sự tự phân loại nhưng vấn đề hồi quy, được biến thành phân loại thứ tự discretizing biến mục tiêu thành J thùng khác nhau với tần số bằng nhau. Đối với các bộ dữ liệu, J = 5 và J = 10 thùng được xem xét, để xem phản ứng của các mô hình với sự gia tăng của sự phức tạp vấn đề. Bảng III cho thấy các đặc tính của 16 bộ dữ liệu, bao gồm cả số mẫu, các thuộc tính và các lớp học , và cũng có sự phân lớp (số lượng mẫu cho mỗi lớp).


























































































đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: