– MPSO using the starting inertia weight, ending inertia weight, cogni dịch - – MPSO using the starting inertia weight, ending inertia weight, cogni Việt làm thế nào để nói

– MPSO using the starting inertia w

– MPSO using the starting inertia weight, ending inertia weight, cognitive learning factor, and social learning factor being 0.5, 0.01, 0.5 and 0.5 respectively. The best solution for computing a velocity vector is randomly selected from a Pareto archive. The adaptive grid algorithm is used as an archiving technique.
– NSGA-II using real codes with crossover mutation probabilities as 1.0 and 0.1 respectively.
– RPBIL using real codes with NI = 40 where each probability tray produces five design solutions.
– RPBIL-DE using real codes with NI = 40 where each probability tray produces five design solutions. Crossover probability, scaling factor and probability of choosing an element from an offspring in crossover for DE operators are set as 0.7, 0.8, and 0.5 respectively.
– DMOEA using real codes with temperature and mutation rate of 1000 and 1 respectively.
– DEMO using real codes with crossover probability, scaling factor and probability of choosing an element from an offspring in crossover for DE operators being 0.7, 0.8, and 0.5 respectively.
– MOEA/D using real codes with number of neighbouring weight vectors, crossover and mutation probabilities being 6, 1.0, and 0.1 respectively.
All MOEAs except UPS-EMOA use the population size of 100, and 250 generations for multiobjective unconstrained test problems.
In addition, the population size and number of generations are 100 and 300 for multiobjective constrained test problems.
UPS-EMOA uses different population size and iteration number as defined previously; however, their search procedures are terminated at the same total number of function evaluations.
The Pareto archive of all MOEAs is set to be 500 except for NSGA-II and DEMO which contain Pareto solutions in a population.
The optimisation parameter settings detailed above are obtained from using several settings for each optimiser and selecting the one that gives the best results.
The ten multiobjective evolutionary optimisers are employed to solve each problem over 30 runs starting with the same initial population.
The comparative results based on the hypervolume indicator are shown in Tables 3 and 4.
The ZDT test problems are shown in Table 3 and the constrained test problems are shown in Table 4.
Note that those hypervolume values are normalised for ease in comparison.
The higher hypervolume value the better the Pareto front.
With 30 runs, the mean value of the front hypervolumes is used to measure the algorithm’s convergence rate while the standard deviation represents the search consistency of the method. This means that a method with lower hypervolume standard deviation (STD) has better search consistency.
From Table 3, the best performer (among compared MOEAs) according to the convergence rate (average hypervolume) for ZDT1, ZDT2, ZDT3, and ZDT6 is MOEA/D while NSGA-II is the best for ZDT4.
The second best of ZDT1 and ZDT2 is BPBIL while RPBIL-DE is the second best of ZDT3 and ZDT6. For the ZDT4, the second best is MOEA/D.
The worst method based on the convergence rate for ZDT1, ZDT2, and ZDT3 is MPSO while the worst of ZDT4 and ZDT6 is RPBIL.
For a search consistency measure which is based on the hypervolume standard deviation, the most consistent method for ZDT1, ZDT2, ZDT3 and
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
– MPSO using the starting inertia weight, ending inertia weight, cognitive learning factor, and social learning factor being 0.5, 0.01, 0.5 and 0.5 respectively. The best solution for computing a velocity vector is randomly selected from a Pareto archive. The adaptive grid algorithm is used as an archiving technique.– NSGA-II using real codes with crossover mutation probabilities as 1.0 and 0.1 respectively.– RPBIL using real codes with NI = 40 where each probability tray produces five design solutions.– RPBIL-DE using real codes with NI = 40 where each probability tray produces five design solutions. Crossover probability, scaling factor and probability of choosing an element from an offspring in crossover for DE operators are set as 0.7, 0.8, and 0.5 respectively.– DMOEA using real codes with temperature and mutation rate of 1000 and 1 respectively.– DEMO using real codes with crossover probability, scaling factor and probability of choosing an element from an offspring in crossover for DE operators being 0.7, 0.8, and 0.5 respectively.– MOEA/D using real codes with number of neighbouring weight vectors, crossover and mutation probabilities being 6, 1.0, and 0.1 respectively.All MOEAs except UPS-EMOA use the population size of 100, and 250 generations for multiobjective unconstrained test problems. In addition, the population size and number of generations are 100 and 300 for multiobjective constrained test problems. UPS-EMOA uses different population size and iteration number as defined previously; however, their search procedures are terminated at the same total number of function evaluations. The Pareto archive of all MOEAs is set to be 500 except for NSGA-II and DEMO which contain Pareto solutions in a population. The optimisation parameter settings detailed above are obtained from using several settings for each optimiser and selecting the one that gives the best results.The ten multiobjective evolutionary optimisers are employed to solve each problem over 30 runs starting with the same initial population. The comparative results based on the hypervolume indicator are shown in Tables 3 and 4. The ZDT test problems are shown in Table 3 and the constrained test problems are shown in Table 4. Note that those hypervolume values are normalised for ease in comparison. The higher hypervolume value the better the Pareto front. With 30 runs, the mean value of the front hypervolumes is used to measure the algorithm’s convergence rate while the standard deviation represents the search consistency of the method. This means that a method with lower hypervolume standard deviation (STD) has better search consistency.From Table 3, the best performer (among compared MOEAs) according to the convergence rate (average hypervolume) for ZDT1, ZDT2, ZDT3, and ZDT6 is MOEA/D while NSGA-II is the best for ZDT4. The second best of ZDT1 and ZDT2 is BPBIL while RPBIL-DE is the second best of ZDT3 and ZDT6. For the ZDT4, the second best is MOEA/D. The worst method based on the convergence rate for ZDT1, ZDT2, and ZDT3 is MPSO while the worst of ZDT4 and ZDT6 is RPBIL. For a search consistency measure which is based on the hypervolume standard deviation, the most consistent method for ZDT1, ZDT2, ZDT3 and
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
- MPSO sử dụng trọng lượng quán tính bắt đầu, kết thúc khối lượng quán tính, yếu tố học tập nhận thức, và các yếu tố xã hội học tập là 0.5, 0.01, 0.5 và 0.5 tương ứng. Giải pháp tốt nhất cho máy tính một vector vận tốc được chọn ngẫu nhiên từ một kho lưu trữ Pareto. Các thuật toán lưới thích nghi được sử dụng như một kỹ thuật lưu trữ.
- NSGA-II sử dụng mã sản với xác suất chéo đột biến như 1.0 và 0.1 tương ứng.
- RPBIL sử dụng mã sản với NI = 40 nơi mỗi khay xác suất sản xuất năm giải pháp thiết kế.
- RPBIL-DE sử dụng mã sản với NI = 40 nơi mỗi khay xác suất sản xuất năm giải pháp thiết kế. Xác suất chéo, rộng yếu tố và xác suất của việc lựa chọn một phần tử từ một con cái trong chéo cho các nhà khai thác DE được thiết lập như 0.7, 0.8, và 0.5 tương ứng.
- DMOEA sử dụng mã sản với nhiệt độ và đột biến tỷ lệ của năm 1000 và 1 tương ứng.
- DEMO sử dụng thực tế mã với chéo xác suất, yếu tố mở rộng quy mô và xác suất của việc lựa chọn một phần tử từ một con cái trong chéo cho các nhà khai thác DE là 0.7, 0.8, và 0.5 tương ứng.
- MOEA / D sử dụng mã sản với số lượng của nước láng giềng vector trọng, crossover và xác suất đột biến là 6 , 1.0, và 0.1 tương ứng.
Tất cả MOEAs trừ UPS-EMOA sử dụng quy mô dân số là 100, và 250 thế hệ cho các vấn đề kiểm tra không bị giới đa mục tiêu.
Ngoài ra, quy mô dân số và số lượng của các thế hệ là 100 và 300 cho đa mục tiêu vấn đề thử nghiệm hạn chế.
UPS -EMOA sử dụng quy mô dân số khác nhau và số lần lặp lại như quy định trước đây; Tuy nhiên, thủ tục tìm kiếm của họ được kết thúc tại cùng một số lượng đánh giá chức năng.
Các kho lưu trữ Pareto của tất cả MOEAs được thiết lập để được 500 trừ NSGA-II và DEMO có chứa các giải pháp Pareto trong dân cư.
Các thiết lập tham số tối ưu hóa chi tiết ở trên thu được từ việc sử dụng một số thiết lập cho mỗi optimizer và chọn một trong đó cung cấp cho các kết quả tốt nhất.
Mười optimisers tiến hóa đa mục tiêu được sử dụng để giải quyết từng vấn đề qua 30 chạy bắt đầu với dân số ban đầu như nhau.
Các kết quả so sánh dựa trên các chỉ số hypervolume được thể hiện trong Bảng 3 và 4.
Các thử nghiệm ZDT vấn đề được trình bày trong bảng 3 và các vấn đề thử nghiệm hạn chế được thể hiện trong Bảng 4.
Lưu ý rằng những giá trị hypervolume được chuẩn hóa để tiện cho việc so sánh.
Giá trị hypervolume cao càng tốt trước Pareto.
Với 30 chạy, giá trị trung bình của các hypervolumes trước được sử dụng để đo tốc độ hội tụ của thuật toán trong khi độ lệch chuẩn thể hiện sự thống nhất tìm kiếm các phương pháp. Điều này có nghĩa rằng một phương pháp với độ lệch chuẩn hypervolume thấp (STD) có tốt hơn nhất quán tìm kiếm.
Từ bảng 3, biểu diễn tốt nhất (trong số MOEAs so) theo tốc độ hội tụ (hypervolume trung bình) cho ZDT1, ZDT2, ZDT3, và ZDT6 là MOEA / D trong khi NSGA-II là tốt nhất cho ZDT4.
Điều tốt nhất thứ hai của ZDT1 và ZDT2 là BPBIL khi RPBIL-DE là tốt nhất thứ hai của ZDT3 và ZDT6. Đối với các ZDT4, là tốt nhất thứ hai là MOEA / D.
Các phương pháp tồi tệ nhất dựa trên tốc độ hội tụ cho ZDT1, ZDT2, và ZDT3 là MPSO trong khi điều tồi tệ nhất của ZDT4 và ZDT6 là RPBIL.
Đối với một biện pháp nhất quán tìm kiếm mà là dựa trên hypervolume độ lệch chuẩn, phương pháp phù hợp nhất cho ZDT1, ZDT2, ZDT3 và
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: