首页 > 其他分享 >P5333 [JSOI2019]神经网络

P5333 [JSOI2019]神经网络

时间:2023-06-07 11:44:07浏览次数:38  
标签:P5333 limits JSOI2019 sum 一棵树 times 神经网络 EGF dp

P5333 [JSOI2019]神经网络

Solution

EGF 表示有标号排列。

对每棵树分别算出划分成 \(i\) 条链的方案数,记为 \(f_i\)。

具体地:设 \(dp[u][i][0/1/2]\) 表示在 \(u\) 子树内拆分成 \(i\) 条已结束的链,

\(0\): 已拼完,无法再延伸

\(1\): 单点,可继续向上扩展

\(2\): 长度 \(>1\) 的链,且可继续向上扩展 (为了处理正反向方案数 \(\times 2\) 的问题)

对于根节点视作它可以向父节点扩展,即和其它节点同等处理

状态由划分的客观形态决定 不能对 \(1/2\) 情况人为钦定为 \(0\)

\(f_i = dp[root][i][0] + dp[root][i - 1][1] + 2 \times dp[root][i - 1][2]\)

\(dp\) 转移有点繁复,但写出来极度舒适

把所有链拼成一个路径排列,则相邻的链颜色不同。

对于其他树,EGF 为:(采用容斥思想,枚举相邻位置个数)

\[\sum\limits_{i = 1}^{k}f_i\times i! \times \sum\limits_{j = 0}^{i - 1}(-1)^{j}\binom{i - 1}{j}\frac{x^{i - j}}{(i - j)!} \]

对于第一棵树,第一条链被固定为起点,且第一棵树最后一条链不能与第一条链相邻。

第一条链被固定为起点:但统计一号点不必作为排列的起点,只需平移即可得到合法哈密顿回路。

第一棵树最后一条链不能与第一条链相邻:可以把两条链拼起来看成第一棵树的另一种拆分方案,因此存在计重问题。

在前一个限制下,用任意合法方案减去强行钦定首尾同色的合法方案,得到第一棵树的 EGF

\[\sum\limits_{i = 1}^{k}f_i\times (i - 1)! \times \sum\limits_{j = 0}^{i - 1}(-1)^{j}\binom{i - 1}{j}\frac{x^{i - j - 1}}{(i - j - 1)!} - \sum\limits_{i = 1}^{k}f_i\times (i - 1)! \times \sum\limits_{j = 0}^{i - 1}(-1)^{j}\binom{i - 1}{j}\frac{x^{i - j - 2}}{(i - j - 2)!} \]

注意后者最后一条链的选取有 \(i - 1\) 种方案,因此其前面的系数仍为 \((i - 1)!\) 而非 \((i - 2)!\)。

暴力卷积,最后把每一项的系数乘对应的阶乘(化成 EGF 的形式)。

标签:P5333,limits,JSOI2019,sum,一棵树,times,神经网络,EGF,dp
From: https://www.cnblogs.com/Schucking-Sattin/p/17462932.html

相关文章

  • Python中TensorFlow的长短期记忆神经网络(LSTM)、指数移动平均法预测股票市场和可视化
    原文链接:http://tecdat.cn/?p=23689最近我们被客户要求撰写关于LSTM的研究报告,包括一些图形和统计输出。本文探索Python中的长短期记忆(LSTM)网络,以及如何使用它们来进行股市预测 ( 点击文末“阅读原文”获取完整代码数据******** )。在本文中,你将看到如何使用一个被称为长短时......
  • DeepBurning:神经网络系列学习加速器自动生成
    介绍一下这篇论文所做的工作。Introduction首先是背景方面,现在出现了CNN、RNN、LSTM等多种神经网络,如何使用硬件加速的方法让这些网络跑的更快?现在已经有的工作:1.GPGPU加速矩阵乘法,可以处理非常大规模的CNN和多种GPU支持的学习框架,但缺点是硬件开销非常大,难以应用在嵌入式......
  • 神经网络模型
    神经网络介绍T.Kohonen于1988年在NeuralNetworks创刊号上给出了神经网络的定义:神经网络是由具有适应性的简单单元组成的广泛并互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。神经网络中最基本的成分是神经元(neuron)模型(即上述定义中的“简单单元”),包......
  • 百度倾力出品|《神经网络机器翻译技术及产业应用》正式上线
    随着经济社会的国际交流合作日益密切,人们迫切需要高质量、高效率的跨语言信息获取和传播工具。《神经网络机器翻译技术及产业应用》以产业需求为牵引,分析了新时期机器翻译的产业需求特点和挑战,介绍了神经网络翻译的基本理论、前沿技术以及面向产业应用的实用系统开发方法。《神经网......
  • Arm NN 成功适配 openEuler Embedded,提供高性能神经网络推理能力
    近期,RISC-VSIG完成了ArmNN在openEulerEmbedded系统的适配,于2023年1月合入系统构建工程代码库,经测试验证可用,实现了神经网络加速库在openEulerEmbedded嵌入式系统上的加速和优化。系统构建工程下载地址:https://gitee.com/openeuler/yocto-meta-openeuler支持ArmN......
  • 基于深度学习的图像分类:使用卷积神经网络实现猫狗分类器
    摘要:深度学习在计算机视觉领域中具有广泛的应用。本文将介绍如何使用卷积神经网络(CNN)实现一个猫狗分类器。我们将使用Python和TensorFlow框架搭建一个简单的卷积神经网络模型,并利用猫狗图像数据集进行训练和测试。通过本文,读者将了解到深度学习在图像分类任务中的基本原理和实践应......
  • 数据不够怎么训练深度学习模型?不妨试试迁移学习 ——重用神经网络的结构2
    数据不够怎么训练深度学习模型?不妨试试迁移学习本质就是这个图!pretrainedmodel就是你截取的部分神经网络模型(迁移学习),而nanonet就是你自己加入的网络层。随着深度学习技术在机器翻译、策略游戏和自动驾驶等领域的广泛应用和流行,阻碍该技术进一步推广的一个普遍性难题也日渐凸显:训......
  • 循环神经网络 RNN LSTM GRU 笔记
    文章目录1.神经网络基础2.RNN循环神经网络2.1背景与概念2.2RNN基本方法2.3拓展3.LSTM3.1概念3.2LSTM基本方法3.3原理解释4.GRU4.1概念与背景4.2GRU基本方法1.神经网络基础上图是一个简单的全连接神经网络结构,每一条连接线上都有一个权重,蕴含着网络学得的“能力”。......
  • 07.类神经网络训练--局部最小值与鞍点
    局部最小值于鞍点训练模型的参数时,随着参数不断地更新,loss函数不会再继续下降,但是仍然对这个loss不满意,或者有时候发现一开始model就训练不起来,不论怎么更新参数loss函数都不会掉下去。我们认为在某个地方参数对loss的微分是0,于是梯度下降就失去了作用,这个时候训练就停止了,这个......
  • Arm NN 成功适配 openEuler Embedded,提供高性能神经网络推理能力
    近期,RISC-VSIG完成了ArmNN在openEulerEmbedded系统的适配,于2023年1月合入系统构建工程代码库,经测试验证可用,实现了神经网络加速库在openEulerEmbedded嵌入式系统上的加速和优化。系统构建工程下载地址:https://gitee.com/openeuler/yocto-meta-openeuler支持ArmNN......