文章总结(week 1)
2024.3.4 ~ 2024.3.10
Deep Ritz Method for Elliptical Multiple Eigenvalue Problems
IF=2.5, Journal of Scientific Computing
DOI: 10.1007/s10915-023-02443-8
文章研究了用神经网络求解椭圆型多重特征值问题。基于椭圆特征值问题的惩罚变分形式,提出了椭圆多重特征值计算的一般公式。用Deep Ritz method求解了椭圆方程的特征值和特征函数。有网络深度和宽度的定量理论分析结果。主要内容如下:
背景
为求如下椭圆方程特征值和特征向量:
\[\begin{cases} -\Delta u + w u = \lambda u, & x\in \Omega \\ Tu = 0, & x \in \part \Omega \end{cases} \tag{1} \]一般用瑞利商来求:
\[a(u, v) \triangleq\langle\nabla u, \nabla v\rangle+\int_{\Omega} w u v d x, u \in H_0^1(\Omega) . \]\[\xi_k \in \underset{v \perp \xi_l, l<k}{\operatorname{argmin}} \frac{a(v, v)}{\|v\|^2} . \]但直接用瑞利商求解会因为瑞利商非凸而不正则,所以需要正则化方法。另需要特征函数是正交的,应引入正交惩罚项。文章证明了 \(T\) 是Robin边界和Dirichlet边界时的收敛性。
方法
文章考虑如下方程的特征值 \(\lambda ^ {\varepsilon_1}\):
\[\begin{cases}-\Delta u+w u=\lambda^{\varepsilon_1} u & \text { in } \quad \Omega \\ \left(T+\frac{1}{\varepsilon_1} \frac{\partial}{\partial n}\right) u=0 & \text { on } \partial \Omega\end{cases} \tag{2} \]并证明了如下定理:
Let \(Q(v)=\|v\|^2-1\) and we define:
\[\mathcal{L}_k(v)=\frac{1}{2} a^{\varepsilon_1}(v, v)+\frac{\varepsilon_2}{4}\left[Q(v)^2+2 \sum_{i<k}\left\langle v, \frac{\xi_i}{\left\|\xi_i\right\|}\right\rangle^2\right], \]and
\[\xi_k \in \underset{v \in H^1}{\operatorname{argmin}} \mathcal{L}_k(v) . \]If \(\varepsilon_2>2 \lambda_k\), we claim that
\[0<\lambda_k-\frac{a^{\varepsilon_1}\left(\xi_k, \xi_k\right)}{\left\langle\xi_k, \xi_k\right\rangle} \lesssim C(\Omega, w) \frac{1}{\varepsilon_1} \]and \(\xi_k\) is the only minimizer of \(\mathcal{L}_k\), omitting a linear transformation in the eigenspace of \(a^{\varepsilon_1}\).
因此要求方程 (1) 的特征值,可以求方程 \((2)\) 的特征值,只需要选择较大的 \(\varepsilon_1\) 即可有较准的估计。而方程的 (2) 的特征向量正是损失函数 \(\mathcal{L}_k(v)\) 的最小值。所以只需要利用神经网络优化即可,文章中使用的是DeepRitz。
结果
文章另有神经网络尺寸和特征值误差关系的分析。
hp-VPINNs: Variational physics-informed neural networks with domain decomposition
IF=7.2, Computer Methods in Applied Mechanics and Engineering
DOI: 10.1016/j.cma.2020.113547
文章主要改进了PINN算法
改进的方式:
将PINN强形式的误差函数中引入测试函数,即将误差函数变为变分形式。
\[Loss = \int_I (L u_{NN}-f) v dx + Bound_{loss} \]文章的主要创新点在于用分区域的紧支集正交多项式作为测试函数v,而非一般在整个I上定义的测试函数。
经过这样处理的测试函数可以将上述积分化为如下求和形式:
\[\int_I = \frac{1}{K_e} \sum_{e\in elements} \sum_k \int_{\Omega_e} (L u_{NN} - f) v^e_k dx \]这样做的好处:
- 原本的积分式子可以分为多个子积分计算,能并行,速度不慢
- 实验数据说明这样的误差要更小
文章选择的测试函数 \(v^e_k\) 是定义在区域e内的k阶高斯勒让德多项式。即在每个子区域内做了一个高斯勒让德函数的测试函数族。最后的积分运算也选择了使用高斯积分公式。
NSNO: Neumann Series Neural Operator for Solving Helmholtz Equations in Inhomogeneous Medium
IF=2.1, Journal of Systems Science and Complexity
DOI: 10.1007/s11424-024-3294-x
文章主要做了两件事情:
- 用纽曼序列解了Helmholtz方程正问题
- 求解思路是迭代法
- 使用了U-Net和Fourier Neural Network框架
- 监督学习+物理信息
- 训练数据来源于有限差分法
- 用上文提到的NSNO模型解了一下Helmholtz反问题:
- 解法是基于求解优化问题的伴随状态法(见文后appendix)
- 将伴随状态法中的正问题求解器换成了神经网络
- 相对误差比直接使用有限差分法大一点22.68% -> 25.25%
- 但是速度快了很多 29.81s -> 2.76s
文章提到的NSNO模型内容比较多,主要想法是用U-Net提取不同尺度(三个尺度)的特征,特征过三个FNO,最后decode的过程。文章过程写的很清楚,但是数值实验的结果不是很漂亮。
PETAL: Physics Emulation Through Averaged Linearizations for Solving Inverse Problems
NerualPS 2023文章
正问题模型:使用多个线性模型加权,代替MLP作为反问题的正演模型。输入参数投影到特征空间,加权的权值是特征空间中的权值,最后加权后结果由W投影回结果矩阵。
反问题模型:在特征空间下的优化问题。求解可以用LBFS、SGD等,作者说使用特征空间投影将提升优化问题的导数的准确度。
【准确的下降方向对于解反问题的优化问题至关重要。然而,正演黑盒模型(如MLP)只被训练来匹配输出,因此执行梯度下降可能导致许多不受欢迎的局部最小值】
文章使用监督学习训练正问题。正问题的可训练参数仅为:encoding矩阵E,投影矩阵P,反投影矩阵W,decoding矩阵D.
因此实际上的网络就是带数据的MLP,最后反问题的梯度也依赖于自动微分。
正问题模型(图左),反问题模型(图右)。
标签:week,varepsilon,特征值,Papers,测试函数,问题,文章,Omega From: https://www.cnblogs.com/zhang-js/p/18065051