首页 > 其他分享 >狄利克雷卷积

狄利克雷卷积

时间:2022-11-17 19:56:54浏览次数:43  
标签:frac 狄利克 卷积 epsilon sum mid

补充一下莫比乌斯反演的前置知识

狄利克雷乘积(Dirichlet product)亦称狄利克雷卷积、卷积,是数论函数的重要运算之一。设f(n)、g(n)是两个数论函数,它们的Dirichlet(狄利克雷)乘积也是一个数论函数,简记为h(n)=f(n)*g(n)。

前置知识:积性函数

规定几种函数:

\[单位函数:\epsilon(n) = \left\{ \begin{aligned} 1 \qquad n = 1 \\ 0 \qquad n > 1 \end{aligned} \right. \\ 幂函数:Id_{k}(n) = n^{k} \\ 常数函数:1(n) = 1 \\ 整除函数:\sigma_{k}(n) = \sum_{d \mid n} d^{k}\\ 欧拉函数:\phi(n) \]

对于函数f和g,狄利克雷卷积的运算过程为:

\[(f * g)(n) = \sum_{d \mid n} f(d)g(\frac{n}{d}) \]

性质:

1.若f,g为积性函数,则\(f*g\)也为积性函数。

2.狄利克雷卷积满足交换律,\(f * g = g * f\)

3.狄利克雷卷积满足结合律,\(f*(g * h) = (f * g) * h\)

4.狄利克雷卷积满足分配律,\(f * (g + h) = f * g + f * h\)

5.\(Id_{k} * 1 = \sigma_{k}\)

证明:

\[(Id_{k} * 1)(n) = \sum_{d \mid n}Id_{k}(d)\cdot 1(\frac{n}{d}) = \sum_{d \mid n} d^{k} = \sigma_{k}(n) \]

6.\((\phi * 1) = Id\)

证明:

设为\(p\)质数,\(m > 0\)

\[(\phi * 1)(p^{m}) = \sum_{d \mid p^{m}}\phi(d) = \sum_{i = 0}^{m} \phi(p^{i}) = p^{0} + \sum_{i = 1}^{m}(p^{i} - p^{i - 1}) = p^{m} \]

因为n可以表示为\(n = p_1^{m_1} \cdot p_2^{m_2} \cdot ... \cdot p_r^{m_r}\),由积性函数的性质可得\((\phi * 1)(n) = n = Id(n)\)

证毕

7.\((\epsilon * f)(n) = \sum_{d \mid n} f(d)\epsilon(\frac{n}{d}) = f(n)\)

狄利克雷逆元

在狄利克雷卷积中,单位元是\(\epsilon\),定义狄利克雷逆元如下:

\[f * f^{-1} = \epsilon \]

则将\(f^{-1}\)称为\(f\)的逆元

几个性质:

1.\(f^{-1}(1) = \frac{1}{f(1)}\)

2.对于\(n > 1\)有:

\[f^{-1}(n) = -\frac{1}{f(1)} \cdot \sum_{d \mid n , d > 1} f(d)f^{-1}(\frac{n}{d}) \]

证明:

\(n = 1\)时:

\[1 = \epsilon (1) = (f * f^{-1})(1) = \sum_{d \mid 1}f(d)f^{-1}(\frac{1}{d}) = f(1)f^{-1}(1)\\ 可得:f^{-1}(1) = \frac{1}{f(1)} \]

\(n \neq1\)时:

\[(f * f^{-1})(n) = \sum_{d \mid n}f(d)f^{-1}(\frac{n}{d}) = f(1)f^{-1}(n) + \sum_{d \mid n, d > 1}f(d)f^{-1}(\frac{n}{d})\\ = f(1) \cdot (-\frac{1}{f(1)})\sum_{d \mid n, d > 1}f(d)f^{-1}(\frac{n}{d}) + \sum_{d \mid n, d > 1}f(d)f^{-1}(\frac{n}{d}) = 0 = \epsilon(n) \]

证毕

3.\(\mu^{-1}(n) = 1\)

证明:

\[因为:\epsilon(n) = (\mu * \mu^{-1})(n) = \sum_{d \mid n}\mu(d)\mu^{-1}(\frac{n}{d}) \\ 且;\epsilon(n) = \sum_{d \mid n}\mu(d)\\ 所以:\mu^{-1}(n) = 1(n) = 1 $$\ 暂时写这么多\]

标签:frac,狄利克,卷积,epsilon,sum,mid
From: https://www.cnblogs.com/mcggvc/p/16900584.html

相关文章

  • 全卷积神经网络概述学习记录
    概述提出背景卷积操作具有局部连接、权值共享的特点,能很好地保留二维数据的空间信息,而池化操作能够很好地满足平移不变性,这在分类任务中非常重要。但是卷积神经网络有一个很......
  • 卷积神经网络
    博主在之前的学习中接触过卷积神经网络,但仍对其一知半解,今天便趁此学习总结一下。参考视频参考视频:​​从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义......
  • 卷积神经网络研究综述 学习记录
    概要深度学习善于从原始输入数据中挖掘越来越抽象的特征表示,而这些表示具有良好的泛化能力。深度学习是包含多级非线性变换的层级机器学习方法,深层神经网络是目前的主要形式......
  • AI基础:经典卷积神经网络
    导语卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习(deeplearning)的代表算法之一......
  • 卷积神经网络的尺寸设计的经验
    关于卷积神经网络的尺寸设计,有一些经验可以参考:(1)输入层:一般而言,输入层的大小应该能够被2整除很多次,常用的数字包括32,64,96和124。(2)卷积层:卷积层应该尽可能使用小尺寸的滤......
  • 7、keras卷积操作
    1、确定图像输入大小和通道数model_1=tf.keras.models.Sequential([#注意,输入的形状是图像所需的大小150x150、3通道#这是第一个卷积、池化tf.keras.......
  • 综述总结:稀疏&集成的卷积神经网络学习
    公众号ID|ComputerVisionGzq学习群|扫码在主页获取加入方式计算机视觉研究院专栏作者:Edison_G今天主要和大家说的是分类检测过程中,一些稀疏和集成学习的相关知识,首先和大家说......
  • 图卷积网络 GCN
    转载自梦家博客研究背景首先,为什么需要研究图卷积网络GCN(GraphConvolutionNetwork)呢?目前算法研究处理的数据主要分为两种:Euclidean结构数据:主要有图片、语音、文......
  • 【视频】CNN(卷积神经网络)模型以及R语言实现回归数据分析|附代码数据
    无人驾驶汽车最早可以追溯到1989年。神经网络已经存在很长时间了,那么近年来引发人工智能和深度学习热潮的原因是什么呢?答案部分在于摩尔定律以及硬件和计算能力的显著提高。......
  • 利用卷积反卷积实现图片自编码器
    手写数字fromtensorflow.keras.layersimportConv2D,MaxPooling2D,Input,Conv2DTranspose,Flatten,Densefromtensorflow.keras.optimizersimportAdamfromtensorflow.k......