首页 > 其他分享 >积性函数与狄利克雷卷积

积性函数与狄利克雷卷积

时间:2024-02-01 09:48:45浏览次数:28  
标签:ab frac 函数 狄利克 积性 sum times 卷积

积性函数

【定义】

若对于一个数论函数 \(f\),有:

对 \((a,b)=1\),有 \(f(a\times b) = f(a) \times f(b)\),

称 \(f\) 是一个积性函数。

特别地,若对于任意数 \(a,b\),有 \(f(a\times b)=f(a)\times f(b)\),

称 \(f\) 是一个完全积性函数。

积性函数举例:

欧拉函数,因数个数,因数和 ……

完全积性函数举例:

幂函数 ……

【作用】

这说明,\(f(a\times b)\) 是可以被 \(f(a)\) 和 \(f(b)\) 递推出来的。

欧拉函数的递推代码:

int pr[N], cnt = 0;
bool f[N] = {};

int phi[N] = {};

void init() {
	memset(f, true, sizeof f);
	f[0] = f[1] = false;
	phi[1] = 1;
	for (int i = 2; i <= n; i++) {
		if (f[i]) {
			pr[++cnt] = i;
			phi[i] = i - 1;
		}
		for (int j = 1; j <= cnt && pr[j] * i <= n; j++) {
			//此时pr[j]就是pr[j]*i的最小质因数 
			f[pr[j] * i] = false;
			if (i % pr[j])
				phi[pr[j] * i] = phi[pr[j]] * phi[i];
			else
				phi[pr[j] * i] = phi[i] * pr[j];
			if (i % pr[j] == 0)
				break;
		}
	}
}

狄利克雷卷积

设 \(f,g\) 是两个数论函数,则它们的狄利克雷卷积 \((f*g)(n)=\displaystyle \sum_{d|n}f(d)\times g(\frac{n}{d})\)。

性质:若 \(f,g\) 为积性函数,则 \(f*g\) 仍为积性函数。

证明:设 \(ab=n,(a,b)=1\),记 \(h=f*g\)。

\[h(n)=h(ab)=\displaystyle\sum_{d|ab}f(d)\times g(\frac{ab}{d}) \]

\[=\displaystyle\sum_{d_1|a,d_2|b}f(d_1d_2)\times g(\frac{ab}{d_1d_2}) \]

注意到因为 \((a,b)=1\),所以 \((d_1,d_2)=1\),这就可以利用积性函数的性质了。

\[\displaystyle=\sum_{d_1|a}f(d_1)\times g(\frac{a}{d_1})\sum_{d_2|b}f(d_2)\times g(\frac{b}{d_2}) \]

\[=h(a)\times h(b) \]

证毕。

推论:\(f(n)=f(p_1^{a_1})f(p_2^{a_2})\cdots f(p_k^{a_k})\),即 \(n\) 的分解形式。

标签:ab,frac,函数,狄利克,积性,sum,times,卷积
From: https://www.cnblogs.com/FLY-lai/p/18000549

相关文章

  • 卷积神经网络理解(4)
    1、CNN中常见的名词padding:padding(填充)参数的作用是决定在进行卷积或池化操作时,是否对输入的图像矩阵边缘补0stride:滑动卷积核时的步长stride(例如每次滑动一个或两个)kernal:卷积核,通常为3x3或者5x5filter:卷积核的数量(神经元的数量)。这个地方怎么理解呢,一个3x3的卷积核有9个参......
  • 卷积神经网络理解(3)
    1、定义LeNet是深度学习领域的一个经典卷积神经网络模型,由YannLeCun等人于1998年提出,被广泛应用于手写数字识别和其他图像识别任务。LeNet的网络结构相对简单,包含两个卷积层和三个全连接层,是卷积神经网络的基础。LeNet对于现代的图像识别任务来说可能过于简单,但其对于深度学习......
  • 卷积神经网络理解(二)
    1、卷积神经网络的特点卷积神经网络相对于普通神经网络在于以下四个特点:局部感知域:CNN的神经元只与输入数据的一小部分区域相连接,这使得CNN对数据的局部结构具有强大的敏感性,可以自动学习到图像的特征。参数共享:在CNN中,同一个卷积核(filter)在整个输入图像上滑动,共享权重和偏置......
  • 卷积神经网络详解+Python实现卷积神经网络Cifar10彩色图片分类
    原文链接:https://blog.csdn.net/master_hunter/article/details/133156758卷积神经网络相对于普通神经网络在于以下四个特点:局部感知域:CNN的神经元只与输入数据的一小部分区域相连接,这使得CNN对数据的局部结构具有强大的敏感性,可以自动学习到图像的特征。参数共享:在CNN中,同一个......
  • 文本分类识别Python+卷积神经网络算法+TensorFlow模型训练+Django可视化界面
    一、介绍文本分类系统,使用Python作为主要开发语言,通过选取的中文文本数据集("体育类","财经类","房产类","家居类","教育类","科技类","时尚类","时政类","游戏类","娱乐类"),基于TensorFlow搭建CNN卷积神经网络算法模型,并进行多轮迭代训练最后得到一个识......
  • 机器学习从入门到放弃:卷积神经网络CNN(一)
    一、前言在上一篇中我们使用全连接网络,来构建我们的手写数字图片识别应用,取得了很好的效果。但是值得注意的是,在实验的最后,最后我们无论把LOSS优化到如何低,似乎都无法在测试数据集testdata中提高我们的识别准确度,你可以回头尝试全连接的网络连接,新增多几层layer,来尝试......
  • 卷积神经网络学习笔记
    全连接神经网络的结构全连接神经网络的整体结构可以简化为智能函数\(y=f_θ(x)\)输入和输出层一般为数据矩阵全连接网络的单元结构神经网络的思路:从单元到整体一个单元的结构:\(X_1,X_2,X_3...\)是很多矩阵,然后这些矩阵分别乘上对应的权重矩阵,再加上偏置矩阵b,输......
  • 【最优化】优化中的转置卷积
    本篇使用的符号说明,在卷积优化函数求导中我们得到了结论\[\frac{\partial}{\partialK}\|A*K-B\|_F^2=2\mathcal{F}^{-1}\left[\overline{\mathcal{F}(A)}\odot\left(\mathcal{F}(A)\odot\mathcal{F}(K)-\mathcal{F}(B)\right)\right].\]现在考虑另一种形式\[\begin{aligned}......
  • 积性函数学习笔记
    积性函数定义积性函数:\(f(x)\)满足\(\forall\gcd(a,b)=1,f(ab)=f(a)f(b)\)若没有\(\gcd(a,b)=1\)的性质,则为完全积性函数。性质性质1:\(f(x),g(x)\)是积性函数\(\implies\)\(f\timesg\)是积性函数,\(f\divg\)是积性函数证明略。性质2:狄利克雷(Dirichlet)卷积\(......
  • 数学和CNN里面的卷积和互相关
    卷积和互相关nndl上CNN这章的互相关讲的比较晦涩,简单辨析一下书上的互相关A.1数学意义上的卷积就是将卷积核进行翻转之后再进行我们熟悉CNN上的卷积运算同时互相关就是不将卷积核翻转直接CNN卷积运算说到这里就明白了,做如下总结\(数学上的互相关=CNN卷积\)$数学上的卷积......