1. 4-QAM symbol sequence sn is passed through the channel and the real dịch - 1. 4-QAM symbol sequence sn is passed through the channel and the real Việt làm thế nào để nói

1. 4-QAM symbol sequence sn is pass

1. 4-QAM symbol sequence sn is passed through the channel and the real and imaginary parts of the symbol are valued from the set f0:7g. The fully complex activation functions of both C-ELM and CBP are chosen as arcsinhðzÞ ¼ R0 z dt=½ð1 þ t2Þ1=2, where z ¼ w z þ b. In fact, during our studies we find that CBP with the hyperbolic activation function tanhðzÞ does not converge well and produce oscillation in the error but CBP with the activation function arcsinhðzÞ converges; however, C-ELM works well with both these complex activation functions and many others. The reason may be that CBP gets stuck in local minima easily while ELM tends to reach global minimum directly. Both the input weight vectors wk and biases bk of the C-ELM 2 are randomly chosen from a complex area centered at the origin with the radius set as 0.1. All the three equalizers CMRAN, CBP and C-ELM are trained with 1000 data symbols at 16dB SNR. It is found that the CRBF equalizer trained with such a small number of training data cannot classify the testing symbols clearly and thus a higher number (104) of training data are used to train CRBF equalizer. The hidden neuron numbers of C-ELM and CBP are set to 10. The CMRAN equalizer obtains 22 hidden neurons at the end of the training process after self-growing and pruning neurons during training. Different numbers of hidden neurons have been tried for the CRBF equalizer; however, the optimal hidden neuron number of CRBF equalizer is found to be 30. All the simulations are conducted in a MATLAB environment running in an ordinary PC with 3GHZ CPU. Fig. 1 shows the distribution of the input data of the different equalizers and Fig. 2 shows the eye diagram of the outputs of the four neural equalizers, C-ELM , CBP, CMRAN and CRBF, respectively. As observed from Fig. 2
both C-ELM and CBP can separate the outputs into four regions clearly. Average of 106 testing samples at various SNRs were used for computing the SER and the comparison of SER for all the four equalizers is shown in Fig. 3. As observed from Fig. 3, C-ELM is superior to all other equalizers in terms of SER. Table 1 shows the training and testing time comparison for the four equalizers. It can be seen that the CELM equalizer can complete training much faster than all other equalizers.
2296/5000
Từ: Anh
Sang: Việt
Kết quả (Việt) 1: [Sao chép]
Sao chép!
1. 4-QAM symbol sequence sn is passed through the channel and the real and imaginary parts of the symbol are valued from the set f0:7g. The fully complex activation functions of both C-ELM and CBP are chosen as arcsinhðzÞ ¼ R0 z dt=½ð1 þ t2Þ1=2, where z ¼ w z þ b. In fact, during our studies we find that CBP with the hyperbolic activation function tanhðzÞ does not converge well and produce oscillation in the error but CBP with the activation function arcsinhðzÞ converges; however, C-ELM works well with both these complex activation functions and many others. The reason may be that CBP gets stuck in local minima easily while ELM tends to reach global minimum directly. Both the input weight vectors wk and biases bk of the C-ELM 2 are randomly chosen from a complex area centered at the origin with the radius set as 0.1. All the three equalizers CMRAN, CBP and C-ELM are trained with 1000 data symbols at 16dB SNR. It is found that the CRBF equalizer trained with such a small number of training data cannot classify the testing symbols clearly and thus a higher number (104) of training data are used to train CRBF equalizer. The hidden neuron numbers of C-ELM and CBP are set to 10. The CMRAN equalizer obtains 22 hidden neurons at the end of the training process after self-growing and pruning neurons during training. Different numbers of hidden neurons have been tried for the CRBF equalizer; however, the optimal hidden neuron number of CRBF equalizer is found to be 30. All the simulations are conducted in a MATLAB environment running in an ordinary PC with 3GHZ CPU. Fig. 1 shows the distribution of the input data of the different equalizers and Fig. 2 shows the eye diagram of the outputs of the four neural equalizers, C-ELM , CBP, CMRAN and CRBF, respectively. As observed from Fig. 2both C-ELM and CBP can separate the outputs into four regions clearly. Average of 106 testing samples at various SNRs were used for computing the SER and the comparison of SER for all the four equalizers is shown in Fig. 3. As observed from Fig. 3, C-ELM is superior to all other equalizers in terms of SER. Table 1 shows the training and testing time comparison for the four equalizers. It can be seen that the CELM equalizer can complete training much faster than all other equalizers.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
1. 4-QAM chuỗi biểu tượng sn được truyền thông qua các kênh và các phần thực và phần ảo của các biểu tượng có giá trị từ tập f0: 7g. Các chức năng kích hoạt đầy đủ phức tạp của cả hai C-ELM và CBP được chọn là arcsinhðzÞ ¼ R0 z dt = ½ð1 þ t2Þ1 = 2, trong đó z ¼ wz þ b. Trong thực tế, trong quá trình nghiên cứu của chúng tôi, chúng tôi thấy rằng CBP có chức năng kích hoạt hyperbolic tanhðzÞ không hội tụ tốt và sản xuất dao động trong các lỗi nhưng CBP có chức năng kích hoạt arcsinhðzÞ hội tụ; Tuy nhiên, C-ELM hoạt động tốt với cả những chức năng kích hoạt phức tạp và nhiều người khác. Lý do có thể là CBP bị mắc kẹt ở cực tiểu địa phương một cách dễ dàng trong khi ELM có khuynh hướng đạt tối thiểu toàn cầu trực tiếp. Cả trọng lượng đầu vào vector wk và những thành kiến bk của C-ELM 2 được chọn ngẫu nhiên từ một khu phức hợp trung tâm tại gốc với bán kính thiết lập như 0.1. Tất cả ba bộ cân bằng CMRAN, CBP và C-ELM được đào tạo với 1.000 ký hiệu dữ liệu tại 16dB SNR. Nó được tìm thấy rằng các equalizer CRBF đào tạo với một số lượng nhỏ như vậy dữ liệu huấn luyện không thể phân loại những biểu tượng thử nghiệm rõ ràng và do đó một số cao hơn (104) của dữ liệu huấn luyện được sử dụng để đào tạo CRBF equalizer. Các con số neuron ẩn của C-ELM và CBP được thiết lập đến 10 CMRAN equalizer có được 22 nơron ẩn ở cuối của quá trình đào tạo sau khi tự trồng và cắt tỉa tế bào thần kinh trong quá trình đào tạo. Số khác nhau của tế bào thần kinh ẩn đã được thử nghiệm cho các equalizer CRBF; Tuy nhiên, tối ưu ẩn số tế bào thần kinh của CRBF equalizer được tìm thấy là 30. Tất cả các mô phỏng được tiến hành trong một môi trường MATLAB đang chạy trong một máy tính bình thường với CPU 3GHz. Sung. 1 cho thấy sự phân bố của dữ liệu đầu vào của các bộ cân bằng khác nhau và hình. 2 cho thấy sơ đồ mắt của các kết quả đầu ra của bốn bộ cân bằng thần kinh, C-ELM, CBP, CMRAN và CRBF, tương ứng. Theo quan sát từ hình. 2
cả C-ELM và CBP có thể tách ra thành bốn vùng rõ ràng. Trung bình của 106 mẫu xét nghiệm tại SNRs khác nhau đã được sử dụng để tính toán các SER và so sánh của SER cho tất cả bốn bộ cân bằng được thể hiện trong hình. 3. Theo quan sát từ hình. 3, C-ELM là vượt trội so với tất cả các bộ cân bằng khác về SER. Bảng 1 cho thấy việc đào tạo và thời gian thử nghiệm so sánh cho bốn bộ cân bằng. Có thể thấy rằng các equalizer CELM có thể hoàn thành đào tạo nhanh hơn nhiều so với tất cả các bộ cân bằng khác.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: ilovetranslation@live.com