首页 > 其他分享 >Papers in week 1

Papers in week 1

时间:2024-03-10 22:55:50浏览次数:28  
标签:week varepsilon 特征值 Papers 测试函数 问题 文章 Omega

文章总结(week 1)

2024.3.4 ~ 2024.3.10

Deep Ritz Method for Elliptical Multiple Eigenvalue Problems

IF=2.5, Journal of Scientific Computing
DOI: 10.1007/s10915-023-02443-8

文章研究了用神经网络求解椭圆型多重特征值问题。基于椭圆特征值问题的惩罚变分形式,提出了椭圆多重特征值计算的一般公式。用Deep Ritz method求解了椭圆方程的特征值和特征函数。有网络深度和宽度的定量理论分析结果。主要内容如下:

背景

为求如下椭圆方程特征值和特征向量:

\[\begin{cases} -\Delta u + w u = \lambda u, & x\in \Omega \\ Tu = 0, & x \in \part \Omega \end{cases} \tag{1} \]

一般用瑞利商来求:

\[a(u, v) \triangleq\langle\nabla u, \nabla v\rangle+\int_{\Omega} w u v d x, u \in H_0^1(\Omega) . \]

\[\xi_k \in \underset{v \perp \xi_l, l<k}{\operatorname{argmin}} \frac{a(v, v)}{\|v\|^2} . \]

但直接用瑞利商求解会因为瑞利商非凸而不正则,所以需要正则化方法。另需要特征函数是正交的,应引入正交惩罚项。文章证明了 \(T\) 是Robin边界和Dirichlet边界时的收敛性。

方法

文章考虑如下方程的特征值 \(\lambda ^ {\varepsilon_1}\):

\[\begin{cases}-\Delta u+w u=\lambda^{\varepsilon_1} u & \text { in } \quad \Omega \\ \left(T+\frac{1}{\varepsilon_1} \frac{\partial}{\partial n}\right) u=0 & \text { on } \partial \Omega\end{cases} \tag{2} \]

并证明了如下定理:

Let \(Q(v)=\|v\|^2-1\) and we define:

\[\mathcal{L}_k(v)=\frac{1}{2} a^{\varepsilon_1}(v, v)+\frac{\varepsilon_2}{4}\left[Q(v)^2+2 \sum_{i<k}\left\langle v, \frac{\xi_i}{\left\|\xi_i\right\|}\right\rangle^2\right], \]

and

\[\xi_k \in \underset{v \in H^1}{\operatorname{argmin}} \mathcal{L}_k(v) . \]

If \(\varepsilon_2>2 \lambda_k\), we claim that

\[0<\lambda_k-\frac{a^{\varepsilon_1}\left(\xi_k, \xi_k\right)}{\left\langle\xi_k, \xi_k\right\rangle} \lesssim C(\Omega, w) \frac{1}{\varepsilon_1} \]

and \(\xi_k\) is the only minimizer of \(\mathcal{L}_k\), omitting a linear transformation in the eigenspace of \(a^{\varepsilon_1}\).

因此要求方程 (1) 的特征值,可以求方程 \((2)\) 的特征值,只需要选择较大的 \(\varepsilon_1\) 即可有较准的估计。而方程的 (2) 的特征向量正是损失函数 \(\mathcal{L}_k(v)\) 的最小值。所以只需要利用神经网络优化即可,文章中使用的是DeepRitz。

结果

文章另有神经网络尺寸和特征值误差关系的分析。

hp-VPINNs: Variational physics-informed neural networks with domain decomposition

IF=7.2, Computer Methods in Applied Mechanics and Engineering
DOI: 10.1016/j.cma.2020.113547

文章主要改进了PINN算法

改进的方式:

将PINN强形式的误差函数中引入测试函数,即将误差函数变为变分形式。

\[Loss = \int_I (L u_{NN}-f) v dx + Bound_{loss} \]

文章的主要创新点在于用分区域的紧支集正交多项式作为测试函数v,而非一般在整个I上定义的测试函数。

经过这样处理的测试函数可以将上述积分化为如下求和形式:

\[\int_I = \frac{1}{K_e} \sum_{e\in elements} \sum_k \int_{\Omega_e} (L u_{NN} - f) v^e_k dx \]

这样做的好处:

  1. 原本的积分式子可以分为多个子积分计算,能并行,速度不慢
  2. 实验数据说明这样的误差要更小

文章选择的测试函数 \(v^e_k\) 是定义在区域e内的k阶高斯勒让德多项式。即在每个子区域内做了一个高斯勒让德函数的测试函数族。最后的积分运算也选择了使用高斯积分公式。

NSNO: Neumann Series Neural Operator for Solving Helmholtz Equations in Inhomogeneous Medium

IF=2.1, Journal of Systems Science and Complexity
DOI: 10.1007/s11424-024-3294-x

文章主要做了两件事情:

  1. 用纽曼序列解了Helmholtz方程正问题
    • 求解思路是迭代法
    • 使用了U-Net和Fourier Neural Network框架
    • 监督学习+物理信息
    • 训练数据来源于有限差分法
  2. 用上文提到的NSNO模型解了一下Helmholtz反问题:
    • 解法是基于求解优化问题的伴随状态法(见文后appendix)
    • 将伴随状态法中的正问题求解器换成了神经网络
    • 相对误差比直接使用有限差分法大一点22.68% -> 25.25%
    • 但是速度快了很多 29.81s -> 2.76s

文章提到的NSNO模型内容比较多,主要想法是用U-Net提取不同尺度(三个尺度)的特征,特征过三个FNO,最后decode的过程。文章过程写的很清楚,但是数值实验的结果不是很漂亮。

PETAL: Physics Emulation Through Averaged Linearizations for Solving Inverse Problems

NerualPS 2023文章

正问题模型:使用多个线性模型加权,代替MLP作为反问题的正演模型。输入参数投影到特征空间,加权的权值是特征空间中的权值,最后加权后结果由W投影回结果矩阵。

反问题模型:在特征空间下的优化问题。求解可以用LBFS、SGD等,作者说使用特征空间投影将提升优化问题的导数的准确度。

【准确的下降方向对于解反问题的优化问题至关重要。然而,正演黑盒模型(如MLP)只被训练来匹配输出,因此执行梯度下降可能导致许多不受欢迎的局部最小值】

文章使用监督学习训练正问题。正问题的可训练参数仅为:encoding矩阵E,投影矩阵P,反投影矩阵W,decoding矩阵D.

因此实际上的网络就是带数据的MLP,最后反问题的梯度也依赖于自动微分。

正问题模型(图左),反问题模型(图右)。

标签:week,varepsilon,特征值,Papers,测试函数,问题,文章,Omega
From: https://www.cnblogs.com/zhang-js/p/18065051

相关文章

  • 蓝桥杯算法集训 - Week1:二分、前缀和、差分算法
    蓝桥杯算法集训-Week1本系列随笔用于整理AcWing题单——《蓝桥杯集训·每日一题2024》的系列题型及其对应的算法模板。一、二分查找二分算法原理复习参考:二分查找-Hello算法Ⅰ、二分模板boolcheck(intx){/*...*/}//检查x是否满足某种性质//区间[l,r]被划分......
  • SMU Winter 2024 div2 ptlks的周报Week 5(3.4-3.10)
    维护子树的全部子树的权值和时,需要用到树的DFS序列,树的每个子树都对应DFS序列中的连续一段黄金树影题意:给定一棵树及每个节点的权值,给定一组操作,输入1ax,表示节点a权值加上x;输入2a,表示询问节点a的子树权值和(包含a)。考虑到树的DFS序列,则问题转变为对某个序列维护区间和以......
  • Weekly Contest 387
    ProblemADistributeElementsIntoTwoArraysI思路按照题意模拟即可.代码classSolution{publicint[]resultArray(int[]nums){intn=nums.length;int[]ans=newint[n];int[]arr1=newint[n];int[]arr2=newint[......
  • NewStarCTF 2023 公开赛道 做题随笔(WEEK1|MISC部分)
    第一题下载打开得到TXT文件好的看样子应该是base32,复制到base在线转换看看得到这玩意 base58转换得到 出了flag  第二题 下载得到一张二维码用隐写软件试试得到一张这个以为是摩斯密码,试试得到有个这玩意,嘶,好像不是试试LSB 得到flag 第三题......
  • Week 2 Problems
    T1代换式、替换式求代换式\((P\rightarrow(P\rightarrowQ))[P/P\rightarrowR]\)求替换式\((P\lorR\rightarrowP\lorR\landS)[(P\lorR)/(P\landR)]\)已知\(P,Q,R,S\)是命题逻辑合式公式,\(P\)是\(Q\)的子公式,\(R\)不是\(Q\)的子公式,用\(Q^1\equivQ[P/R]\)和「替......
  • NewStar Week2-3部分pwn wp
    stack_migrationchecksec开启了NX保护,但是没有PIE和Canary代码审计可以看到有两个read和一个printf。第一个read没什么用我们看第二个。因为v2距离rbp有0x50个字节,而read只能读入0x60个字节,意味着我们剩余的字节数只有0x10,没法构造完整的ROP链,那么我们就只能利用栈迁移来变......
  • HNCTF 2022 WEEK2
    [HNCTF2022WEEK2]e@sy_flower发现花指令changetype90nop掉在主函数p重构,然后就可以反编译了编写脚本enc="c~scvdzKCEoDEZ[^roDICUMC"flag=[1]*24forjinrange(24):flag[j]=chr(ord(enc[j])^48)foriinrange(12):v5=flag[2*i+1]......
  • AwesomeTechnologyWeekly 值的关注的中文社区优质技术周刊一览
    作为开发者,我们每天都需要吸收大量的信息补充我们的知识体系.AwesomeTechnologyWeeklyZh-Hans项目收集了中文技术社区各个领域的高质量的中文技术月/周/日刊,定时刷新获取最新一期中文技术月/周/日刊进行展示.访问网站开始关注吧~:https://shansan.top/awesome-tech-weekly-......
  • HNCTF 2022 WEEK1
    [HNCTF2022Week1]超级签到str2是编写脚本str2='{hello_world}'print(str2.replace(chr(111),chr(48)))#{hell0_w0rld}[HNCTF2022Week1]贝斯是什么乐器啊?enc为码表为脚本为a="NRQ@PAu;8j[+(R:2806.i"flag=""foriinrange(len(a)):fla......
  • 杂七杂八wp(NewStar_Week1和BeginCTF2024的部分pwn)
    碎碎念咱就一纯小白,以为带了Begin这一单词的CTF能对我仁慈一点,结果吧,太喜欢了,被狠狠拷打,从头自闭到尾,属于是从这次比赛又狠狠学习到不少知识了废话不多说,上正文嘞BeginCTFOne_bytechecksec嗯,基本啥都开了,喜欢捏。但是尊贵的CTFer,该“源审,启动!”了可以看到两个read,一个是......