Исследования в области электрофизики, основанные на теореме Лапласа и физических информационных нейронных сетях

Бесплатный доступ

В данной работе, посвященной электрофизике, проводится углубленное исследование математических моделей, основанных на сочетании теоремы Лапласа и физических нейронных сетей (PINN), а также их приложений. Теорема Лапласа, как ключевое дифференциальное уравнение, описывающее устойчивые физические явления, широко используется в анализе устойчивых полей в электрофизике, таких как распределение потенциала электростатических полей в пассивных областях и т.д. PINN - это недавний инновационный подход, который предоставляет мощный инструмент для решения дифференциальных уравнений путем умного встраивания законов физики в нейронные сети. В этой статье сначала подробно объясняются основные принципы PINN, включая построение архитектуры сети, функцию потерь, способ интеграции физических уравнений и граничных условий в обучение нейронной сети. Затем предложенный метод подробно рассматривается на примере простой двумерной потенциальной задачи. В этой задаче задаются определенные граничные условия для имитации потенциальных ограничений в реальном физическом сценарии. Двумерная потенциальная задача решается методом PINN, чтобы продемонстрировать, что PINN может эффективно решать стационарное распределение электрического поля при условии удовлетворения теоремы Лапласа. В то же время результаты PINN сравниваются и анализируются с традиционными численными методами, чтобы проверить точность, эффективность и адаптивность PINN при сложных граничных условиях, а также предоставить новые идеи и методы для соответствующих исследований и инженерных приложений в области электрофизики.

Еще

Теорема лапласа, физические нейронные сети, дифференциальные уравнения в частных производных, электрофизика, поля с устойчивым состоянием

Короткий адрес: https://sciup.org/170208700

IDR: 170208700   |   DOI: 10.24412/2500-1000-2025-1-2-200-205

Текст научной статьи Исследования в области электрофизики, основанные на теореме Лапласа и физических информационных нейронных сетях

Теорема Лапласа – одно из фундаментальных дифференциальных уравнений, описывающих стационарные физические явления в виде: v 2 p = о .

где p - скалярное поле (например, электрический потенциал, температурное поле и т. д.). Теорема имеет важные приложения в области электрофизики, теплопроводности, гидродинамики и т.д.

Физические нейронные сети – это новый метод моделирования и решения физических явлений в непрерывном пространстве путем встраивания решений и граничных условий дифференциальных уравнений в модели глубокого обучения. Этот подход демонстрирует значительные преимущества при решении высокоразмерных сложных систем.

Целью данной работы является изучение процесса моделирования и решения задач стационарного состояния в электрофизике пу- тем объединения теоремы Лапласа с PINN. Сначала мы представим основы PINN, а затем проверим метод на примере двумерной задачи о распределении потенциала.

  • 1.    Теоретическая база

    • 1.1.    Теорема Лапласа

Теорема Лапласа описывает поведение распределения скалярного поля в пассивной области: v 2 p = 0

В декартовой системе координат уравнение Лапласа выражается как V2p = дp / дx2 + d2p / ду2 + дp / дz2 = 0, где p может обозначать электрический потенциал. Это уравнение показывает, что потенциал удовлетворяет частному дифференциальному уравнению второго порядка, когда в пространстве нет распределения чистого заряда. В физическом смысле, в области без источника заряда распределение потенциала является гладким и не меняется резко из-за наличия локализованного заряда.

Возьмем, к примеру, вывод уравнения Лапласа из фундаментального уравнения электростатического поля в декартовой системе координат. Согласно закону Гаусса v - E = p / s0 , в области отсутствия распределения заряда p = 0 и напряженности электрического поля E =-∇ ϕ , замена E = -∇ ϕ на v- E = 0 , т.е. v- ( -v p ) = 0 , дает v V = 0 .

  • 1.2.    Принципы физических нейронных сетей (PINN)

    • 1.2.1.    Архитектура и механизм работы PINN

Анализируется иерархия сети PINN, включая настройку входного, скрытого и выходного слоев. На входной слой поступают независимые переменные физической задачи, такие как пространственные координаты, время и т.д.; скрытый слой выполняет извлечение признаков и отображение входной информации посредством нелинейных преобразований между нейронами; а выходной слой выдает решение задачи, такое как физические величины электрического потенциала и напряженности электрического поля. Объясните подробно, как законы физики включаются в процесс обучения нейронной сети в виде функций потерь или ограничений.PINN формирует следующую оптимизационную задачу, вводя законы физики (например, дифференциальные уравнения, начальные краевые условия) непосредственно в функцию потерь нейронной сети: L =αL +βL . Где Lpde – остаток дифференциального уравнения [1], который получается путем подстановки решения, предсказанного нейронной сетью, в дифференциальное уравнение и вычисления разности между левой и правой частями уравнения, а L – отклонение от граничных условий, которое сравнивает предсказанное нейронной сетью значение на границе с известным значением граничных условий. α и β – весовые коэффициенты, которые используются для настройки относительной важности ограничений дифференциального уравнения и ограничений граничных условий в функции потерь [2]. Оптимизируя параметры нейронной сети, PINN может получать приближенные решения, обеспечивая при этом физическую согласованность. В процессе обучения оптимизационные алгоритмы, такие как стохастический градиентный спуск, обычно используются для непрерывной настройки весов и смещений нейронной сети с целью минимизации функции потерь, чтобы выход нейронной сети максимально удовлетворял физическим законам и граничным условиям.

  • 1.2.2.    Различия и преимущества по сравнению с традиционными нейронными сетями

Сравнение традиционных нейронных сетей по степени зависимости от данных, способности к обобщению и пониманию природы физики с PINN подчеркивает значительные преимущества PINN в решении задач, обусловленных физикой. Традиционные нейронные сети в основном полагаются на большой объем обучающих данных для изучения взаимосвязи между входами и выходами, в то время как PINN не только использует данные, но и включает физические знания, и хорошо работает с ограниченными данными; с точки зрения способности к обобщению, PINN обладает лучшей способностью предсказания для невидимых данных благодаря ограничениям, накладываемым законами физики; и с точки зрения понимания природы физики, PINN может более точно отражать внутренние законы физических процессов, в то время как традиционные нейронные сети могут лишь поверхностно соответствовать данным [3-5].

  • 1.3.    Комбинированный подход с использованием теоремы Лапласа и PINN

    • 1.3.1.    Построение функции потерь на основе уравнения Лапласа

Подробное описание того, как уравнение Лапласа может быть дискретизировано и преобразовано в штрафной член для функции потерь PINN, путем корректировки весов для баланса соответствия данных и степени удовлетворения физических ограничений. Уравнение Лапласа пространственно дискретизируется, например, с помощью методов конечных разностей, конечных элементов и т.д., в набор алгебраических уравнений. Эти дискретизированные уравнения затем добавляются к функции потерь PINN в виде членов L , а вклад ограничений уравнения Лапласа во всю функцию потерь регулируется путем настройки весовα , чтобы модель соответствовала данным и удовлетворяла физиче- ским законам, описываемым уравнением Лапласа.

  • 1.3.2.    Способы введения физических ограничений, связанных с Лапласом, в PINN

  • 2.    Экспериментальный пример – решение распределения поля параллельного пластинчатого конденсатора

    • 2.1.    Описание проблемы и физическое моделирование

  • 2.2.    Теоретический анализ на основе теоремы Лапласа

  • 2.3.    Построение и обучение модели PINN2.3.1.    Структура сети

  • 2.3.2.    Учебные данные

  • 2.3.3.    Функция потерь

  • 2.3.4.    Параметры обучения и оптимизатор

    С помощью оптимизатора Adam начальная скорость обучения была установлена на 0,001. С помощью планировщика скорости обучения скорость обучения умножалась на 0,1 каждые 1000 циклов обучения, в общей сложности 5000 циклов обучения.

  • 2.4.    Сравнение и анализ результатов

Изучить конкретные способы включения граничных условий, связанных с теоремой Лапласа (например, граничных условий Дирихле, граничных условий Неймана), закона сохранения энергии, закона сохранения заряда и т.д., в процесс обучения и прогнозирования PINN в виде мягких или жестких ограничений. Для граничных условий Дирихле (известные значения функции на границе) разница между предсказанными и известными значениями на границе может непосредственно использоваться как часть члена L ; для граничных условий Неймана (известные значения нормальной производной функции на границе) соответствующий член потерь получается путем вычисления нормальных производных предсказанных нейросетью значений на границе и сравнения их с известными значениями. Для законов сохранения энергии и заряда ограничения могут быть реализованы путем добавления остаточных членов соответствующих сохраняемых величин к функции потерь или путем явного ограничения вычислительного процесса нейронной сети, чтобы гарантировать, что модель следует этим физическим законам во время обучения и прогнозирования [6].

Представлены структурные параметры параллельно-пластинчатого конденсатора, в котором расстояние между полюсами и пластинами равно L = 1.0, а приложенное напряжение равно    V = 1.0, пренебрегая краевым эффектом [7]. Предполагая, что площадь полюсных пластин пока явно не задана, создается одномерная модель распределения электрического поля, в которой одна из полюсных пластин является началом координат, а перпендикулярное полюсной пластине направление – осью x. В качестве точек обучающей выборки равномерно выбирается N = 100 точек в интервале [0,L].

Внутри конденсатора без распределения заряда потенциал удовлетворяет уравнению Лапласа. В сочетании с граничными условиями (потенциал на одной полюсной пластине равен V = 1.0 , а на другой - 0 ) теоретическое распределение потенциала получается путем двойного интегрирования как ф ( x ) = V o (1 - x / L ) , что, в свою очередь, дает напряженн сть электрического поля E ( x ) = V , / L , основанную на зависимости между напряженностью электрического поля и потенциалом [8].

Для определения структуры сети PINN входной слой представляет собой нейрон, соответствующий координате x, скрытый слой состоит из двух слоев, каждый слой содержит 20 нейронов, в качестве функции активации выбрана функция ReLU, а выходной слой представляет собой нейрон, выводящий потенциал.

В интервале [0,L] было сгенерировано N=100 равномерно распределенных обучающих точек, которые использовались для последующего обучения модели с выведенным набором атрибутов и размещались на соответствующем вычислительном устройстве в зависимости от устройства.

Построена функция потерь на основе уравнения Лапласа, состоящая из двух частей: потери PDE, которые получаются при вычислении производной второго порядка от прогноза потенциала, и потери граничных условий, которые вычисляются на основе разницы между прогнозом потенциала и теоретическим значением на границе. Общая потеря получается путем взвешенного суммирования потерь от PDE и потерь от граничных условий, а вес принимает значение 1.0.

Результаты распределения электрического поля, полученные с помощью PINN, сравниваются с теоретическим аналитическим решением. Результаты обучения сначала преобразуются из конкретного формата в форму массива, а одномерные результаты расширяются до двух измерений путем создания двумерной сетки. После этого строятся тепловая карта распределения потенциала и тепловая карта абсолютной ошибки, предсказанной PINN, и аннотируются путем добавления цветных полос, а затем изображения сохраняются. Результаты визуализации показывают, что PINN лучше отражает характеристики распределения потенциала, а его ошибка в основном сосредоточена в области, близкой к границе (рис.).

Рисунок.

Поскольку PINN учитывает физические законы (например, теорему Лапласа и другие соответствующие физические ограничения при решении электрофизических задач) в процессе построения, результаты прогнозирования не только хорошо согласуются с данными, но и удовлетворяют требованиям физических законов. Из идеальных результатов прогнозирования и низкой погрешности, представленных на рисунке, можно сделать вывод, что PINN с большей вероятностью дает обоснованные прогнозы, основанные на физической согласованности, и обладает лучшей способностью к обобщению, которую трудно сравнить с традиционными методами, управляемыми данными, даже когда приходится сталкиваться с ситуациями, не полностью охваченными обучающими данными [9, 10].

Заключение

Таким образом, в данном исследовании теорема Лапласа в электрофизике успешно сочетается с физической нейронной сетью (PINN) и применяется для решения задачи распределения электрического поля параллельных пластинчатых конденсаторов. Построив подходящую архитектуру модели PINN, тщательно разработав функцию потерь и разумно задав параметры обучения, мы эф- фективно используем ограниченные данные обучения и физические законы, вытекающие из теоремы Лапласа, и получаем более точное предсказание распределения электрического поля. Несмотря на то, что вблизи граничной области все еще остаются некоторые ошибки, данное исследование полностью демонстрирует большой потенциал PINN в решении задач электрофизики с устойчивым состоянием поля.

Будущие исследования могут продолжить изучение того, как оптимизировать модель PINN для повышения точности прогнозирования в более сложных условиях электрического поля, таких как наличие нескольких сред и неоднородных распределений заряда. В то же время ценно также исследовать, как более тесно интегрировать другие связанные законы физики с PINN, чтобы расширить ее применение в других областях электромагнетизма. Кроме того, глубокий анализ вычислительной эффективности и ресурсоемкости PINN при решении задач различного масштаба имеет большое значение для содействия применению этого метода в практической инженерии, что, как ожидается, принесет новые прорывы и возможности для исследований и практики электрофизики и смежных областей.

Список литературы Исследования в области электрофизики, основанные на теореме Лапласа и физических информационных нейронных сетях

  • Cuomo S., Di Cola V.S., Giampaolo F. et al. Scientific Machine Learning Through Physics-Informed Neural Networks: Where we are and What’s Next // J Sci Comput. 2022. - № 92. - P. 88.
  • Cai, S., Mao, Z., Wang, Z. et al. Physics-informed neural networks (PINN) for fluid mechanics: a review // Acta Mech. Sin. - 2021. - № 37. - P. 1727-1738.
  • Willard J, Jia X, Xu S, et al.Integrating physics-based modeling with machine learning: A survey // arXiv. - 2020. - № 1(1). - P. 1-34. - [Электронный ресурс]. - Режим доступа: https://arxiv.org/pdf/2003.04919v4.
  • L. von Rueden et al. Informed Machine Learning - A Taxonomy and Survey of Integrating Prior Knowledge into Learning Systems // IEEE Transactions on Knowledge and Data Engineering. - 2023. - Vol. 35, № 1. - P. 614-633. - DOI: 10.1109/TKDE.2021.3079836.
  • Raissi M., Perdikaris P., Karniadakis G.E. Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations // Journal of Computational Physics. - 2019. - Vol. 378. - P. 686-707.
  • Karniadakis G.E., Kevrekidis I.G., Lu L. et al. Physics-informed machine learning // Nat Rev Phys. - 2021. - №3. - P. 422-440. - [Электронный ресурс]. - Режим доступа: https://doi.org/10.1038/s42254-021-00314-5.
  • Betancourt M. A geometric theory of higher-order automatic differentiation. - [Электронный ресурс]. - Режим доступа: https://arxiv.org/abs/1812.11592.
  • Bai J., Rabczuk T., Gupta A. et al. A physics-informed neural network technique based on a modified loss function for computational 2D and 3D solid mechanics // Comput Mech. - 2023. - № 71. - P. 543-562.
  • Schiassi, Enrico, D’Ambrosio, Andrea,Drozd, Kristofer, Curti, Fabio,Furfaro, Roberto. Physics-Informed Neural Networks for Optimal Planar Orbit Transfers // Journal of Spacecraft and Rockets. - 2022. - № 59,3. - P. 834-849. AID-10.2514/1.A35138.
  • Hongping Wang, Yi Liu, Shizhao Wang; Dense velocity reconstruction from particle image velocimetry/particle tracking velocimetry using a physics-informed neural network // Physics of Fluids. - 2022. - № 34 (1): 017116.
Еще
Статья научная