Исследования в области электрофизики, основанные на теореме Лапласа и физических информационных нейронных сетях
Автор: Чжоу Ф.
Журнал: Международный журнал гуманитарных и естественных наук @intjournal
Рубрика: Физико-математические науки
Статья в выпуске: 1-2 (100), 2025 года.
Бесплатный доступ
В данной работе, посвященной электрофизике, проводится углубленное исследование математических моделей, основанных на сочетании теоремы Лапласа и физических нейронных сетей (PINN), а также их приложений. Теорема Лапласа, как ключевое дифференциальное уравнение, описывающее устойчивые физические явления, широко используется в анализе устойчивых полей в электрофизике, таких как распределение потенциала электростатических полей в пассивных областях и т.д. PINN - это недавний инновационный подход, который предоставляет мощный инструмент для решения дифференциальных уравнений путем умного встраивания законов физики в нейронные сети. В этой статье сначала подробно объясняются основные принципы PINN, включая построение архитектуры сети, функцию потерь, способ интеграции физических уравнений и граничных условий в обучение нейронной сети. Затем предложенный метод подробно рассматривается на примере простой двумерной потенциальной задачи. В этой задаче задаются определенные граничные условия для имитации потенциальных ограничений в реальном физическом сценарии. Двумерная потенциальная задача решается методом PINN, чтобы продемонстрировать, что PINN может эффективно решать стационарное распределение электрического поля при условии удовлетворения теоремы Лапласа. В то же время результаты PINN сравниваются и анализируются с традиционными численными методами, чтобы проверить точность, эффективность и адаптивность PINN при сложных граничных условиях, а также предоставить новые идеи и методы для соответствующих исследований и инженерных приложений в области электрофизики.
Теорема лапласа, физические нейронные сети, дифференциальные уравнения в частных производных, электрофизика, поля с устойчивым состоянием
Короткий адрес: https://sciup.org/170208700
IDR: 170208700 | DOI: 10.24412/2500-1000-2025-1-2-200-205
Electrophysics based on Laplace’s theorem and physical information neural networks
Focusing on the field of electrophysics, this paper provides an in-depth study of mathematical models based on the combination of Laplace's Theorem and Physical Neural Networks (PINN) and their applications. Laplace's theorem, as a key partial differential equation describing steady state physical phenomena, is widely used in steady state field analysis in electrophysics, such as the potential distribution of electrostatic fields in passive regions, etc. PINN is a recent innovative approach, which provides a powerful tool for solving partial differential equations by cleverly embedding the laws of physics into neural networks. In this paper, the basic principles of PINN are firstly explained in detail, including the construction of the network architecture, the loss function, and the way of integrating the physical equations and boundary conditions into the neural network training. Subsequently, the proposed method is explored in depth by elaborating a simple two-dimensional potential problem. In this problem, specific boundary conditions are set to simulate the potential constraints in a real physical scenario. The two-dimensional potential problem is solved by the PINN method to demonstrate that PINN can efficiently solve the steady-state electric field distribution under the condition of satisfying Laplace's theorem. At the same time, the results of PINN are compared and analysed with the traditional numerical methods to verify the accuracy, efficiency and adaptability of PINN under complex boundary conditions, and to provide new ideas and methods for related research and engineering applications in the field of electrophysics.
Текст научной статьи Исследования в области электрофизики, основанные на теореме Лапласа и физических информационных нейронных сетях
Теорема Лапласа – одно из фундаментальных дифференциальных уравнений, описывающих стационарные физические явления в виде: v 2 p = о .
где p - скалярное поле (например, электрический потенциал, температурное поле и т. д.). Теорема имеет важные приложения в области электрофизики, теплопроводности, гидродинамики и т.д.
Физические нейронные сети – это новый метод моделирования и решения физических явлений в непрерывном пространстве путем встраивания решений и граничных условий дифференциальных уравнений в модели глубокого обучения. Этот подход демонстрирует значительные преимущества при решении высокоразмерных сложных систем.
Целью данной работы является изучение процесса моделирования и решения задач стационарного состояния в электрофизике пу- тем объединения теоремы Лапласа с PINN. Сначала мы представим основы PINN, а затем проверим метод на примере двумерной задачи о распределении потенциала.
-
1. Теоретическая база
-
1.1. Теорема Лапласа
-
Теорема Лапласа описывает поведение распределения скалярного поля в пассивной области: v 2 p = 0
В декартовой системе координат уравнение Лапласа выражается как V2p = дp / дx2 + d2p / ду2 + дp / дz2 = 0, где p может обозначать электрический потенциал. Это уравнение показывает, что потенциал удовлетворяет частному дифференциальному уравнению второго порядка, когда в пространстве нет распределения чистого заряда. В физическом смысле, в области без источника заряда распределение потенциала является гладким и не меняется резко из-за наличия локализованного заряда.
Возьмем, к примеру, вывод уравнения Лапласа из фундаментального уравнения электростатического поля в декартовой системе координат. Согласно закону Гаусса v - E = p / s0 , в области отсутствия распределения заряда p = 0 и напряженности электрического поля E =-∇ ϕ , замена E = -∇ ϕ на v- E = 0 , т.е. v- ( -v p ) = 0 , дает v V = 0 .
-
1.2. Принципы физических нейронных сетей (PINN)
-
1.2.1. Архитектура и механизм работы PINN
-
Анализируется иерархия сети PINN, включая настройку входного, скрытого и выходного слоев. На входной слой поступают независимые переменные физической задачи, такие как пространственные координаты, время и т.д.; скрытый слой выполняет извлечение признаков и отображение входной информации посредством нелинейных преобразований между нейронами; а выходной слой выдает решение задачи, такое как физические величины электрического потенциала и напряженности электрического поля. Объясните подробно, как законы физики включаются в процесс обучения нейронной сети в виде функций потерь или ограничений.PINN формирует следующую оптимизационную задачу, вводя законы физики (например, дифференциальные уравнения, начальные краевые условия) непосредственно в функцию потерь нейронной сети: L =αL +βL . Где Lpde – остаток дифференциального уравнения [1], который получается путем подстановки решения, предсказанного нейронной сетью, в дифференциальное уравнение и вычисления разности между левой и правой частями уравнения, а L – отклонение от граничных условий, которое сравнивает предсказанное нейронной сетью значение на границе с известным значением граничных условий. α и β – весовые коэффициенты, которые используются для настройки относительной важности ограничений дифференциального уравнения и ограничений граничных условий в функции потерь [2]. Оптимизируя параметры нейронной сети, PINN может получать приближенные решения, обеспечивая при этом физическую согласованность. В процессе обучения оптимизационные алгоритмы, такие как стохастический градиентный спуск, обычно используются для непрерывной настройки весов и смещений нейронной сети с целью минимизации функции потерь, чтобы выход нейронной сети максимально удовлетворял физическим законам и граничным условиям.
-
1.2.2. Различия и преимущества по сравнению с традиционными нейронными сетями
Сравнение традиционных нейронных сетей по степени зависимости от данных, способности к обобщению и пониманию природы физики с PINN подчеркивает значительные преимущества PINN в решении задач, обусловленных физикой. Традиционные нейронные сети в основном полагаются на большой объем обучающих данных для изучения взаимосвязи между входами и выходами, в то время как PINN не только использует данные, но и включает физические знания, и хорошо работает с ограниченными данными; с точки зрения способности к обобщению, PINN обладает лучшей способностью предсказания для невидимых данных благодаря ограничениям, накладываемым законами физики; и с точки зрения понимания природы физики, PINN может более точно отражать внутренние законы физических процессов, в то время как традиционные нейронные сети могут лишь поверхностно соответствовать данным [3-5].
-
1.3. Комбинированный подход с использованием теоремы Лапласа и PINN
-
1.3.1. Построение функции потерь на основе уравнения Лапласа
-
Подробное описание того, как уравнение Лапласа может быть дискретизировано и преобразовано в штрафной член для функции потерь PINN, путем корректировки весов для баланса соответствия данных и степени удовлетворения физических ограничений. Уравнение Лапласа пространственно дискретизируется, например, с помощью методов конечных разностей, конечных элементов и т.д., в набор алгебраических уравнений. Эти дискретизированные уравнения затем добавляются к функции потерь PINN в виде членов L , а вклад ограничений уравнения Лапласа во всю функцию потерь регулируется путем настройки весовα , чтобы модель соответствовала данным и удовлетворяла физиче- ским законам, описываемым уравнением Лапласа.
-
1.3.2. Способы введения физических ограничений, связанных с Лапласом, в PINN
-
2. Экспериментальный пример – решение распределения поля параллельного пластинчатого конденсатора
-
2.1. Описание проблемы и физическое моделирование
-
-
2.2. Теоретический анализ на основе теоремы Лапласа
-
2.3. Построение и обучение модели PINN2.3.1. Структура сети
-
2.3.2. Учебные данные
-
2.3.3. Функция потерь
-
2.3.4. Параметры обучения и оптимизатор
С помощью оптимизатора Adam начальная скорость обучения была установлена на 0,001. С помощью планировщика скорости обучения скорость обучения умножалась на 0,1 каждые 1000 циклов обучения, в общей сложности 5000 циклов обучения.
-
2.4. Сравнение и анализ результатов
Изучить конкретные способы включения граничных условий, связанных с теоремой Лапласа (например, граничных условий Дирихле, граничных условий Неймана), закона сохранения энергии, закона сохранения заряда и т.д., в процесс обучения и прогнозирования PINN в виде мягких или жестких ограничений. Для граничных условий Дирихле (известные значения функции на границе) разница между предсказанными и известными значениями на границе может непосредственно использоваться как часть члена L ; для граничных условий Неймана (известные значения нормальной производной функции на границе) соответствующий член потерь получается путем вычисления нормальных производных предсказанных нейросетью значений на границе и сравнения их с известными значениями. Для законов сохранения энергии и заряда ограничения могут быть реализованы путем добавления остаточных членов соответствующих сохраняемых величин к функции потерь или путем явного ограничения вычислительного процесса нейронной сети, чтобы гарантировать, что модель следует этим физическим законам во время обучения и прогнозирования [6].
Представлены структурные параметры параллельно-пластинчатого конденсатора, в котором расстояние между полюсами и пластинами равно L = 1.0, а приложенное напряжение равно V = 1.0, пренебрегая краевым эффектом [7]. Предполагая, что площадь полюсных пластин пока явно не задана, создается одномерная модель распределения электрического поля, в которой одна из полюсных пластин является началом координат, а перпендикулярное полюсной пластине направление – осью x. В качестве точек обучающей выборки равномерно выбирается N = 100 точек в интервале [0,L].
Внутри конденсатора без распределения заряда потенциал удовлетворяет уравнению Лапласа. В сочетании с граничными условиями (потенциал на одной полюсной пластине равен V = 1.0 , а на другой - 0 ) теоретическое распределение потенциала получается путем двойного интегрирования как ф ( x ) = V o (1 - x / L ) , что, в свою очередь, дает напряженн сть электрического поля E ( x ) = V , / L , основанную на зависимости между напряженностью электрического поля и потенциалом [8].
Для определения структуры сети PINN входной слой представляет собой нейрон, соответствующий координате x, скрытый слой состоит из двух слоев, каждый слой содержит 20 нейронов, в качестве функции активации выбрана функция ReLU, а выходной слой представляет собой нейрон, выводящий потенциал.
В интервале [0,L] было сгенерировано N=100 равномерно распределенных обучающих точек, которые использовались для последующего обучения модели с выведенным набором атрибутов и размещались на соответствующем вычислительном устройстве в зависимости от устройства.
Построена функция потерь на основе уравнения Лапласа, состоящая из двух частей: потери PDE, которые получаются при вычислении производной второго порядка от прогноза потенциала, и потери граничных условий, которые вычисляются на основе разницы между прогнозом потенциала и теоретическим значением на границе. Общая потеря получается путем взвешенного суммирования потерь от PDE и потерь от граничных условий, а вес принимает значение 1.0.
Результаты распределения электрического поля, полученные с помощью PINN, сравниваются с теоретическим аналитическим решением. Результаты обучения сначала преобразуются из конкретного формата в форму массива, а одномерные результаты расширяются до двух измерений путем создания двумерной сетки. После этого строятся тепловая карта распределения потенциала и тепловая карта абсолютной ошибки, предсказанной PINN, и аннотируются путем добавления цветных полос, а затем изображения сохраняются. Результаты визуализации показывают, что PINN лучше отражает характеристики распределения потенциала, а его ошибка в основном сосредоточена в области, близкой к границе (рис.).
Рисунок.
Поскольку PINN учитывает физические законы (например, теорему Лапласа и другие соответствующие физические ограничения при решении электрофизических задач) в процессе построения, результаты прогнозирования не только хорошо согласуются с данными, но и удовлетворяют требованиям физических законов. Из идеальных результатов прогнозирования и низкой погрешности, представленных на рисунке, можно сделать вывод, что PINN с большей вероятностью дает обоснованные прогнозы, основанные на физической согласованности, и обладает лучшей способностью к обобщению, которую трудно сравнить с традиционными методами, управляемыми данными, даже когда приходится сталкиваться с ситуациями, не полностью охваченными обучающими данными [9, 10].
Заключение
Таким образом, в данном исследовании теорема Лапласа в электрофизике успешно сочетается с физической нейронной сетью (PINN) и применяется для решения задачи распределения электрического поля параллельных пластинчатых конденсаторов. Построив подходящую архитектуру модели PINN, тщательно разработав функцию потерь и разумно задав параметры обучения, мы эф- фективно используем ограниченные данные обучения и физические законы, вытекающие из теоремы Лапласа, и получаем более точное предсказание распределения электрического поля. Несмотря на то, что вблизи граничной области все еще остаются некоторые ошибки, данное исследование полностью демонстрирует большой потенциал PINN в решении задач электрофизики с устойчивым состоянием поля.
Будущие исследования могут продолжить изучение того, как оптимизировать модель PINN для повышения точности прогнозирования в более сложных условиях электрического поля, таких как наличие нескольких сред и неоднородных распределений заряда. В то же время ценно также исследовать, как более тесно интегрировать другие связанные законы физики с PINN, чтобы расширить ее применение в других областях электромагнетизма. Кроме того, глубокий анализ вычислительной эффективности и ресурсоемкости PINN при решении задач различного масштаба имеет большое значение для содействия применению этого метода в практической инженерии, что, как ожидается, принесет новые прорывы и возможности для исследований и практики электрофизики и смежных областей.
Список литературы Исследования в области электрофизики, основанные на теореме Лапласа и физических информационных нейронных сетях
- Cuomo S., Di Cola V.S., Giampaolo F. et al. Scientific Machine Learning Through Physics-Informed Neural Networks: Where we are and What’s Next // J Sci Comput. 2022. - № 92. - P. 88.
- Cai, S., Mao, Z., Wang, Z. et al. Physics-informed neural networks (PINN) for fluid mechanics: a review // Acta Mech. Sin. - 2021. - № 37. - P. 1727-1738.
- Willard J, Jia X, Xu S, et al.Integrating physics-based modeling with machine learning: A survey // arXiv. - 2020. - № 1(1). - P. 1-34. - [Электронный ресурс]. - Режим доступа: https://arxiv.org/pdf/2003.04919v4.
- L. von Rueden et al. Informed Machine Learning - A Taxonomy and Survey of Integrating Prior Knowledge into Learning Systems // IEEE Transactions on Knowledge and Data Engineering. - 2023. - Vol. 35, № 1. - P. 614-633. - DOI: 10.1109/TKDE.2021.3079836.
- Raissi M., Perdikaris P., Karniadakis G.E. Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations // Journal of Computational Physics. - 2019. - Vol. 378. - P. 686-707.
- Karniadakis G.E., Kevrekidis I.G., Lu L. et al. Physics-informed machine learning // Nat Rev Phys. - 2021. - №3. - P. 422-440. - [Электронный ресурс]. - Режим доступа: https://doi.org/10.1038/s42254-021-00314-5.
- Betancourt M. A geometric theory of higher-order automatic differentiation. - [Электронный ресурс]. - Режим доступа: https://arxiv.org/abs/1812.11592.
- Bai J., Rabczuk T., Gupta A. et al. A physics-informed neural network technique based on a modified loss function for computational 2D and 3D solid mechanics // Comput Mech. - 2023. - № 71. - P. 543-562.
- Schiassi, Enrico, D’Ambrosio, Andrea,Drozd, Kristofer, Curti, Fabio,Furfaro, Roberto. Physics-Informed Neural Networks for Optimal Planar Orbit Transfers // Journal of Spacecraft and Rockets. - 2022. - № 59,3. - P. 834-849. AID-10.2514/1.A35138.
- Hongping Wang, Yi Liu, Shizhao Wang; Dense velocity reconstruction from particle image velocimetry/particle tracking velocimetry using a physics-informed neural network // Physics of Fluids. - 2022. - № 34 (1): 017116.