Bởi vì, cai trị chuỗi sản lượng (8). Vì vậy, các gradient adjoined quan đếnma trận mới được đưa ra bởi (33)và Để xác định một phần derivatives của ex-pression trước đó, xem xét việc mở rộng cofactor của định thức của ma trận ở tensor ký hiệu, tức là,, nơi là hàm delta Kronecker. Cùng với (40), việc mở rộng này có thể được sử dụng để có được các mối quan hệ simplifying sau, cụ thể là: (34)Chỗ ở này có thể được dễ dàng mở rộng để lặp đi lặp lại ma trận multi-plications. Ví dụ, nếu (43)(44) sau đó các gradient đối với ma trận được cho bởi (35) với Nếu Nếu và Nếu nếu (45) C. adjoined thuộc tính Gradient 3 (nghịch đảo của một ma trận) (36) và cofactor của ở đâu. Phương trình (44) và (45) có thể được viết bằng một ký hiệu nhỏ gọn hơn bằng cách giới thiệu một ma trận thu được từ bằng cách thay thế các hàng và cột có chứa các yếu tố của ma trận Cho ma trận được định nghĩa trong điều khoản của một ma trận khả nghịch (37)và giả định các gradient adjoined được biết đến với quan đến. Chúng tôi tìm kiếm để tính toán gradient adjoined về. Nghịch đảo của một ma trận có thể được tính toán từ lĩnh và quyết định của nó (38)hoặc (39)cofactor các yếu tố ở đâu. Cofactor một yếu tố ma trận thu được từ tương ứng của nó nhỏ, sử dụng mối quan hệ sau đây: (40)nơi tiểu cofactor là định thức của một ma-trix, thu được bằng cách loại bỏ các hàng và cột có chứa các yếu tố, từ. Chuyển sắc adjoined re-spect để biến mới thu được từ sự cai trị chuỗi(41)nơi (42) với một hàng và cột của các nguyên tố không. Sau đó, (42) có thể là cũ-ép như (46) cung cấp đó là khả nghịch, ai cũng có thể xác định một ma trậnmà thu được từ bằng cách thay thế hàng th và th cột với các yếu tố không của nó. Sau đó, gradient adjoined của ma trận nghịch đảo, trong điều khoản của, có thể được đơn giản hơn nữađể (47)bằng cách tổng hợp trên cả hai và theo quy tắc tensor. Nếu không phải là khả nghịch, việc sử dụng của (46) là cần thiết. Nó có thể được nhìn thấy từ các phương trình trước đó rằng ngay cả những tính toán hiệu quả nhất của gradient adjoined đối với một ma trận nghịch đảo là tốn kém, vì nó đòi hỏi inversions của một ma trận.Mất adjoined Gradient bất động sản 4 (Kronecker sản phẩm)Giả sử đó thu được từ các sản phẩm Kronecker của hai ma trận (48)và đó được đưa ra. Sau đó, tính toán gradient adjoined quan đến như (49) Cuối cùng, cho bất kỳ mịn màng và khả vi phi tuyến chức năng, nếu các gradient adjoined được biết đến đối với ma trận (50)sau đó các gradient adjoined quan đến được cho bởi(51)PHỤ LỤC III KÝ HIỆU ĐỊNH VỊPositional ký hiệu được sử dụng để đại diện cho trọng lượng mạng nơ-ron dựa trên đầu vào, ẩn nút, và kết quả đầu ra họ kết nối. Bất kỳ vector có thể được xem như là một tập lệnh ele-ments. Hãy để biểu thị các thiết lập chỉ mục của các véc tơ đầu vào thần kinh, the index set of the output vector , and the index set of the hidden nodes , and of the input-to-node vector . Suppose the input vector is partitioned into two or more vectors , then each vector partition is a subsetof , with an index set denoted by . Similarly, the subscript of the hidden-node and output index sets denote the corre-sponding vector partitions. Therefore, the third-order tensor contains the neural network weights associatedwith the hidden nodes, inputs, and outputs with index sets , , and , respectively. The same notation is used for weight matrices (or second-order tensors), using two arguments instead of three. For example, consider the neural network described in Fig. 1, with input weights . The matrix denotes the input weights that connect the inputs in to the hidden nodes . Consequently, the matrix is easily obtained by removing the rows and columns in with index sets and [where denotes the complement set].APPENDIX IVPROOF OF THEOREM 1 (EQUALITY CONSTRAINTS)The equality constraints (12) are derived by considering the neural network equation (9) and its derivatives(52)The neural network hidden nodes are partitioned as follows: (53)Similarly, the neural network output can be partitioned intothe subvectors , such that and have the sa
đang được dịch, vui lòng đợi..