Нейросетевой подход к решению задачи самовоздействия волновых полей в нелинейных средах

Автор: Васильев Евгений Павлович, Болотов Дмитрий Ильич, Болотов Максим Ильич, Смирнов Лев Александрович

Журнал: Проблемы информатики @problem-info

Рубрика: Теоретическая и системная информатика

Статья в выпуске: 1 (54), 2022 года.

Бесплатный доступ

В работе рассматривается возможность применения технологий глубинного обучения для численного решения задачи о распространении оптических импульсов в средах с нелинейностью Керра. В качестве математической модели, описывающей процессы эволюции огибающей электромагнитного излучения, выбрано обобщенное параболическое уравнение, которое в безразмерных переменных имеет вид одномерного модифицированного нелинейного уравнения Шредингера. Была предложена постановка указанной проблемы, позволяющая задействовать для расчетов методы искусственного интеллекта, и реализован один из возможных вариантов данного подхода с применением полносвязной нейронной сети для решения физических задач. При этом был проведен анализ различных алгоритмов подбора параметров, ответственных за передачу информации от слоя к слою такой сети в ходе ее обучения. Выполненные исследования показали, что наиболее перспективными с точки зрения скорости вычислений и адекватности предсказаний являются квази-ньютоновские функции оптимизации, которые в стандартных библиотеках имеют аббревиатуру L-BGFS.

Еще

Нелинейное уравнение шредингера, нейронные сети, глубокое обучение, функции оптимизации

Короткий адрес: https://sciup.org/143179065

IDR: 143179065   |   УДК: 517.957   |   DOI: 10.24412/2073-0667-2022-1-5-16

Neural network approach to solving the problem of self-action of wave fields in nonlinear media

We consider the problem of propagation of optical impulses in media with Kerr nonlinearity. As a mathematical model describing an optical pulse propagation process, we chose a generalized parabolic equation, which in dimensionless variables has the form of a one-dimensional modi ed Nonlinear Schr odinger Equation. We trained a fully connected neural network with various optimization functions and did experiments with network con guration and hyperparameters optimization. The conducted experiments have shown the promise of using the quasi-Newtonian L-BGFS optimization function over rst-order optimization functions in this problem. The article presents the results of experiments on training the model using various optimization functions: SDG, RMSProp, Adam, L-BGFS, the last optimizer allows you to train the network about an order faster. We also consider the size of the training sample required to train the model. From the obtained training results, we can conclude that due to the randomly uniform selection of points from the area using the Latin hypercube, it is enough to make a train sample of 10 15 % of the dataset, this will correspond to a step of about 0.12 in z and 0.022 in τ compared to 0.039 in z and 0.008 in τ in a regular grid obtained by numerical methods. In low-dimensional problems, the use of machine learning is not always appropriate, since training takes much more time than solving the problem using direct numerical simulation. However, as the complexity of the system increases, due to the increase in the number of unknown variables, a huge superiority of machine learning methods is expected due to fast calculation using an already trained network. Also open and interesting for future research is the issue of fast retraining of an already trained model for a problem with new parameters

Еще

Список литературы Нейросетевой подход к решению задачи самовоздействия волновых полей в нелинейных средах

  • George D., Huerta Е. A. Deep Learning for real-time gravitational wave detection and parameter estimation: Results with Advanced LIGO data // Physics Letters. 2018. В 778, P. 64-70. [Electron. Res.]: https://doi.org/10.1016/j .physletb.2017.12.053.
  • Gonoskov A., et al. Employing machine learning for theory validation and identication of experimental conditions in laser-plasma physics // Scientic Reports. 2019. N 9 1, P. 1-15. [Electron. Res.]: https://doi.org/10.1038/s41598-019-43465-3.
  • Ravi D., et al. Deep Learning for Health Informatics // IEEE J. of Biomedical and Health Informatics. 2017. N 21 1, P. 4-21. [Electron. Res.]: https://doi.org/10.1109/JBHI.2016.2636665.
  • Lachinov D., Vasiliev E., Turlapov V. Glioma Segmentation with Cascaded UNet // BrainLes 2018. LNCS 11384. 2018. [Electron. Res.]: https://doi.org/10.1007/978-3-030-11726-9_17.
  • Kumar M., Yadav N. Multilayer perceptrons and radial basis function neural network methods for the solution of differential equations: A survey // Computers and Mathematics with Applications. 2011. N 62, P. 3796-3811.
  • Хазапов E. А., Миронов С.Ю., Mypv. Ж. Нелинейное сжатие сверхмощных лазерных импульсов: компрессия после компрессора // Успехи физических наук. 2019. № 189, С. 1173-1200. [Электронный ресурс]: https: //doi . org/10.3367/UFNr. 2019.05.038564.
  • Ахманов С. А., Выслоух В. А., Чиркин А. С. Оптика фемтосекупдпых лазерных импульсов // М.: Наука. Гл. ред. физ.-мат. лит. 1988.
  • Moxley F.I. Generalized finite-difference time-domain schemes for solving nonlinear Schrodinger equations //A Dissertation Presented in Partial Fulfillment of the Requirements for the Degree Doctor of Philosophy/ 2013. [Electron. Res.]: https://core.ac.uk/download/pdf/236621293.pdf.
  • Stein M. Large sample properties of simulations using Latin hypercube sampling // Technometrics. 1987. N 29. P. 143-151. [Electron. Res.]: https://www.jstor.org/stable/1269769.
  • Glorot X., Bengio Y. Understanding the difficulty of training deep feedforward neural networks // Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics. 2010. N 9, P. 249-256. [Electron. Res.]: http://proceedings.mlr.press/v9/glorotl0a.html.
  • Robbins H., Monro S. A stochastic approximation method // The annals of mathematical statistics. 1951. Vol. 22. P. 400-407. [Electron. Res.]: https://doi.org/10.1214/aoms/1177729586.
  • Hilton G. Neural Networks for Machine Learning. Lecture 6a. Overview of mini-batch gradient descent. 2012. [Electron. Res.]: http://www.cs.toronto.edu/~tijmen/csc321/slides/ lecture\slides\lec6.pdf.
  • Kingma D., Ba J. Adam. A Method for Stochastic Optimization // Cornell University Library. 2014. [Electron. Res.]: https://arxiv.org/abs/1412.6980.
  • Schraudolph N.N., Yu J., Gunter S. A Stochastic Quasi-Newton Method for Online Convex Optimization // International Conference on Artificial Intelligence and Statistics. 2007. P. 436-443. [Electron. Res.]: http://proceedings.mlr.press/v2/schraudolph07a/schraudolph07a.pdf.
Еще