JCP2023
这篇文章聚焦了PINN在处理奇异摄动问题时所面临的困难。(用不同的分支网络去表示内部区域和外部区域中边界层问题的不同阶数的近似)。但本文所提出的方法计算量非常大,因为他要使用至少两个以上的网络。实验中作者也仅使用了两个网络去近似,即内部和外部网络。
首先,文章给出了许多边界层问题的具体示例,并给出了详细的介绍。边界层问题困难的关键就是它固有的大梯度。例如,湍流边界层减阻的空气动力问题,冷却中的对流传热,浓度边界层的对流传输以及浓度边界层中的生物传输。注意到在20世纪初,prandtl就提出了边界层理论,使得该领域一直有持续的研究。
目前PINN无法处理带有边界层的问题,例如,在扩散方程中,当扩散系数减小时,边界层厚度降低,PINN就会遇到收敛问题,一般表现为训练完全无法收敛。目前在PINN的后续工作,也有部分针对这方面的改进,如时空域分解和加密以及课程学习。但是,这些工作在参数极小时,往往也会陷入无法收敛的境地。
本文的工作受鼓舞于奇异摄动理论和渐进展开方法。在奇异摄动理论中,针对这种情况,存在一组基函数,能够好的表示这种奇异行为。(应该是类似于傅里叶展开一样,利用这种特殊的基函数,进行一种降阶)
作者还说明,利用所提出的方法,在参数发生小范围的波动时,仍然可以使用原坐标系进行评估,而无需重新进行训练。
BL-PINN的结构以及损失函数如下:
在BL-PINN中,每一个基函数都使用一个神经网络去拟合,但由于涉及到不同的区域,不同的阶数,所以就需要至少两个以上的网络参与训练。并且,本文的方法来自渐进展开方法,但是并没有使用传统的有限元方法,而是使用了深度学习的方法优化目标求解。
前两项损失分别是外部和内部的损失,第三项是重叠区域的关联损失。外部损失由物理损失、边界损失和数据产生的损失相加而得到。内部损失同理。作者提到,当没有数据,或者不清楚数据的缺失程度时,就不适用由数据产生的损失,即纯物理驱动。重叠区域由不同的阶数相加,并且再由匹配条件产生一个损失。即,在内部区域进行一个放缩,将层区域进行放大。具体的变化如下,其中,蓝色标记分母为外部区域的基函数。由于经过放缩之后,会导致趋于0,但奇异摄动问题再趋于0时和等于0时,会有非常大的差距。因此再次使用一个缩放,使得趋于1.
A的确定需要仔细分析(考虑使得趋于1即可
在网络的结构中,因为考虑了重叠区域,似乎是不太需要精确的边界点,也就是,只需要知道一个大概的范围就可以进行计算,但是当网络数量增加时,会导致非常大的计算量。并且所给出的示例,也并没有计算出很小的扩散参数。
看实验结果,效果是还不错的,并且只用了两个网络。计算量是PINN的两倍。
但是,作者发现了一个有趣的现象,对于某些问题,仅仅使用内部的网络,反而可以获得比总体更好的结果。以及有时,网络也无法好的学习到非层区域。作者认为,它们的方法在参数越小时会越准确。并且也注意到了计算量的问题。
标签:layer,perturbation,Theory,网络,损失,区域,边界层,奇异,PINN From: https://www.cnblogs.com/orange0005/p/17075850.html