Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами
Автор: Пушкарев Кирилл Владимирович
Журнал: Программные системы: теория и приложения @programmnye-sistemy
Рубрика: Искусственный интеллект, интеллектуальные системы, нейронные сети
Статья в выпуске: 2 (41) т.10, 2019 года.
Бесплатный доступ
Представлен гибридный метод глобальной оптимизации НАИЗ-PSO на основе нейросетевой аппроксимации инверсных зависимостей (координат от значений целевой функции) и метода роя частиц, служащий для нахождения глобального минимума непрерывной целевой функции многих переменных в области, имеющей вид многомерного параллелепипеда. Целевая функция рассматривается как абстрактная вычислительная процедура («чёрный ящик»).Метод использует группы пробных точек, движущихся как в методе роя частиц. Одна из возможных целей движения определяется через отображение пониженных значений целевой функции в координаты посредством модифицированных дуальных обобщённо-регрессионных нейронных сетей, конструируемых по пробным точкам.Параметрами процесса управляет эволюционный алгоритм. В алгоритме управления популяция состоит из эволюционирующих правил, заключающих в себе наборы параметров. Для оценки приспособленности особи используются две числовые характеристики: краткосрочная (очарование) и долгосрочная (достоинство)...
Глобальная оптимизация, эвристические методы, эволюционные методы, нейронные сети, установка параметров, управление параметрами, метод роя частиц
Короткий адрес: https://sciup.org/143169795
IDR: 143169795 | DOI: 10.25209/2079-3316-2019-10-2-33-65
Список литературы Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами
- W. M. Spears, K. A. De Jong, T. Bäck, D. B. Fogel, H. De Garis. “An overview of evolutionary computation”, European Conference on Machine Learning, Lecture Notes in Computer Science, vol. 667, Springer, 1993, pp. 442-459. DOI: 10.1007/3-540-56602-3_163
- F. Neri, V. Tirronen. “Recent advances in differential evolution: a survey and experimental analysis”, Artificial Intelligence Review, 33:1-2 (2010), pp. 61-106. DOI: 10.1007/s10462-009-9137-2
- N. Siddique, H. Adeli. “Nature inspired computing: an overview and some future directions”, Cognitive computation, 7:6 (2015), pp. 706-714. DOI: 10.1007/s12559-015-9370-8
- D. H. Wolpert, W. G. Macready. “No free lunch theorems for optimization”, IEEE transactions on evolutionary computation, 1:1 (1997), pp. 67-82. DOI: 10.1109/4235.585893
- G. Karafotias, M. Hoogendoorn, A. E. Eiben. “Parameter control in evolutionary algorithms: Trends and challenges”, IEEE Transactions on Evolutionary Computation, 19:2 (2015), pp. 167-187. DOI: 10.1109/TEVC.2014.2308294
- A. Aleti, I. Moser. “A systematic literature review of adaptive parameter control methods for evolutionary algorithms”, ACM Computing Surveys (CSUR), 49:3 (2016), 56.
- DOI: 10.1145/2996355
- R. Poli, J. Kennedy, T. Blackwell. “Particle swarm optimization”, Swarm intelligence, 1:1 (2007), pp. 33-57.
- DOI: 10.1007/s11721-007-0002-0
- V. D. Koshur. “Reinforcement swarm intelligence in the global optimization method via neuro-fuzzy control of the search process”, Optical Memory and Neural Networks, 24:2 (2015), pp. 102-108.
- DOI: 10.3103/S1060992X15020083
- Sh. A. Akhmedova, V. V. Stanovov, E. S. Semenkin. “Cooperation of bio-inspired and evolutionary algorithms for neural network design”, Journal of Siberian Federal University. Mathematics Physics, 11:2 (2018), pp. 148-158.
- DOI: 10.17516/1997-1397-2018-11-2-148-158
- E. Semenkin, M. Semenkina. “Self-configuring genetic algorithm with modified uniform crossover operator”, ICSI 2012, Lecture Notes in Computer Science, vol. 7331, Springer, 2012, pp. 414-421.
- DOI: 10.1007/978-3-642-30976-2_50
- G. Karafotias, A. E. Eiben, M. Hoogendoorn. “Generic parameter control with reinforcement learning”, ACM, 2014, pp. 1319-1326.
- DOI: 10.1145/2576768.2598360
- G. Karafotias, M. Hoogendoorn, B. Weel. “Comparing generic parameter controllers for EAs”, IEEE, 2014, pp. 46-53.
- DOI: 10.1109/FOCI.2014.7007806
- A. Rost, I. Petrova, A. Buzdalova. “Adaptive Parameter Selection in Evolutionary Algorithms by Reinforcement Learning with Dynamic Discretization of Parameter Range”, ACM, 2016, pp. 141-142.
- DOI: 10.1145/2908961.2908998
- В. Д. Кошур, К. В. Пушкарев. «Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей», Сборник научных трудов: в 3 ч. 1, ред. О. А. Мишулина, НИЯУ МИФИ, М., 2010, с. 89-98.
- V. Koshur, K. Pushkaryov. “Global optimization via neural network approximation of inverse coordinate mappings”, Optical Memory and Neural Networks, 20:3 (2011), pp. 181-193.
- DOI: 10.3103/S1060992X1103009X
- К. В. Пушкарев, В. Д. Кошур. «Гибридный эвристический параллельный метод глобальной оптимизации», Вычислительные методы и программирование, 16 (2015), с. 242-255.
- DOI: 10.26089/NumMet.v16r224
- В. Д. Кошур, К. В. Пушкарев. «Дуальные обобщённо-регрессионные нейронные сети для решения задач глобальной оптимизации», Сборник научных трудов: в 2 ч. 2, ред. О. А. Мишулина, НИЯУ МИФИ, М., 2010, с. 219-227.
- J. Nocedal, S. J. Wright. Numerical Optimization, Second Edition, Springer-Verlag, New York, 2006.
- DOI: 10.1007/978-0-387-40065-5
- N. H. Awad, M. Z. Ali, P. N. Suganthan, J. J. Liang, B. Y. Qu. “Problem Definitions and Evaluation Criteria for the CEC 2017 Special Session and Competition on Single Objective Real-Parameter Numerical Optimization”, 2016 URL http://web.mysites.ntu.edu.sg/epnsugan/PublicSite/Shared%20Documents/CEC-2017/Bound-Constrained/Definitions%20of%20%20CEC2017%20benchmark%20suite%20final%20version%20updated.pdf.
- G. Karafotias, M. Hoogendoorn, A. E. Eiben. “Why parameter control mechanisms should be benchmarked against random variation”, IEEE, 2013, pp. 349-355.
- DOI: 10.1109/CEC.2013.6557590
- E. Jones, T. Oliphant, P. Peterson, et al. SciPy: Open source scientific tools for Python, 2001 URL http://www.scipy.org/.
- R Core Team. R: A language and environment for statistical computing, 2018 URL https://www.R-project.org/.