Передовые методы оптимизации работы с нейросетями на современных архитектурах
Автор: П. М. Урвачев, В. А. Ковтун
Журнал: Современные инновации, системы и технологии.
Рубрика: Прикладные вопросы и задачи применения систем и технологий
Статья в выпуске: 4(4), 2024 года.
Бесплатный доступ
Статья посвящена исследованию и сравнению различных методов оптимизации при обучении нейронных сетей. Рассматриваются ключевые алгоритмы, такие как стохастический градиентный спуск, метод Momentum, AdaGrad и Adam. Для каждого метода предоставляются теоретические обоснования, математические формулы и примеры реализации на практике. Проведено экспериментальное сравнение эффективности этих методов на задаче классификации рукописных цифр с использованием набора данных MNIST. Обсуждаются преимущества и недостатки каждого метода, а также их влияние на скорость обучения и точность модели. На основе полученных результатов подводится итог о наиболее эффективном алгоритме, подчеркивается важность выбора подходящего метода оптимизации для повышения эффективности нейронных сетей в различных приложениях.
Нейронные сети, оптимизация, стохастический градиентный спуск, Momentum, AdaGrad, Adam, обучение модели, производительность, MNIST, сравнение методов
Короткий адрес: https://sciup.org/14131315
IDR: 14131315 | DOI: 10.47813/2782-2818-2024-4-4-0199-0212