Применение эволюционных алгоритмов для автоматического проектирования рекуррентных нейронных сетей в задачах регрессии

Бесплатный доступ

В ракетно-космической отрасли часто приходится сталкиваться со сложными задачами черного ящика, для решения которых можно использовать нейронные сети. Данный подход сталкивается с проблемой подбора оптимальной архитектуры нейронной сети. Если создать слишком большую сеть, потратив большое количество вычислительных ресурсов на ее обучение, то для получения результатов потребуется большое количество времени или более мощные процессоры, что не всегда целесообразно. Намного лучше спроектировать небольшую нейронную сеть, которая справится с задачей. Решением данной проблемы занимается направление neural evolution, где эволюционные алгоритмы автоматически проектируют структуру нейронной сети на основе естественного отбора. Одним из таких алгоритмов является алгоритм генетического программирования, который строит функции в виде дерева и преобразует их в нейронную сеть. Деревья содержат функциональные узлы с различными операторами. Однако в стандартном представлении для кодирования нейронной сети используются только два оператора, которые позволяют либо добавлять скрытые слои, либо увеличивать количество нейронов в слое. Эти операторы не поддерживают создание рекуррентных связей, которые могли бы увеличить разнообразие решений и повысить качество моделей. В данном исследовании предложен новый унарный функциональный оператор, создающий рекуррентные связи на основе анализа нейронов скрытого слоя. Эффективность предложенного подхода исследована на некоторых задач из Feynman Symbolic Regression Database и результаты сравнены с предыдущими версиями алгоритма. В результате проведенного исследования были получены следующие результаты: алгоритм в среднем решал задачи хуже, чем прошлые версии, однако в некоторых прогонах находил лучшие решения поставленной задачи. О низкой средней эффективности предложенного подхода создания рекуррентных связей было выдвинуто несколько гипотез, направленных на возможное улучшение алгоритма.

Еще

Рекуррентные нейронные сети, самоконфигурируемые алгоритмы, алгоритм генетического программирования, ранняя остановка, задачи регрессии

Короткий адрес: https://sciup.org/148333104

IDR: 148333104   |   УДК: 519.6   |   DOI: 10.31772/2712-8970-2026-27-1-8-20

Application of evolutionary algorithms for designing recurrent neural networks in regression problems

The aerospace industry often deals with complex black-box problems, where neural networks offer a potential solution. However, a major challenge with this approach is finding the optimal neural network architecture. Designing an overly large network wastes computational resources and requires significant training time or more powerful hardware. A more efficient solution is to design a compact network that performs the task effectively. The field of neural evolution addresses this by using evolutionary algorithms to automatically design network structures through natural selection. Genetic Programming is one such algorithm; it builds functions as trees and then transforms them into neural networks. These trees contain functional nodes with various operators. Currently, the standard encoding method uses only two operators: one adds hidden layers, and the other increases the number of neurons in a layer. These operators cannot create recurrent connections, which could enhance solution diversity and model performance. Our research proposes a new unary functional operator that generates recurrent connections by analyzing neurons in the hidden layer. We studied the effectiveness of this approach on several tasks from the Feynman Symbolic Regression Database and compare the results with previous versions of the algorithm. The study yields the following key findings: on average, the new algorithm performs worse than its predecessors. However, in several independent runs, it discovers better solutions to the given problems. We propose several hypotheses to explain the low average effectiveness of this recurrent connection mechanism, which aims to guide future improvements to the algorithm.

Еще