首页 > 其他分享 >网络最大流(Dinic)

网络最大流(Dinic)

时间:2024-04-12 21:23:47浏览次数:17  
标签:最大 增广 int sum 网络 dfs bfs dep Dinic

网络最大流Dinic算法 代码笔记

代码思路

主体部分:

构造分层图,找增广路
(即bfs和dfs)

辅助部分:

当前弧优化
(在bfs中进行重置,在dfs中进行更新)

整合:

首先是存图与主函数部分,通常还包括对问题的转换(也就是建图)。
剩下的就是bfs和dfs。

考虑bfs需要实现哪些功能:最主要地,它需要提供一个分层图,具体而言要得到一个dep[]数组,表示以s为起点,其余点的广搜深度;其次bfs还要提供增广路的有无,用于结束循环。
再考虑dfs需要实现的功能:无非就是统计流量,以及进行残留网络的更新(正减反加)。

简化部分:

日常struct存图

注意事项:

就算题面上是有向图,也要建双向边,所以记得\(\times 2\)。

原理(极简)

残留网络和残留网络的反向路径:Ford-Fulkerson

一个流是最大流,当且仅当其残留网络不包括增广路径

每次用BFS计算一条最短增广路: Edmonds-Karp

经过BFS结合DFS的优化: Dinic

代码注释

#include <bits/stdc++.h>
using namespace std;
#define int long long
// 不开long long见祖宗 

const int inf = 0x3f3f3f3f;
const int N = 505, M = 5005;
int n, m, s, t, cnt = 1, head[N], dep[N];
struct Edge{
	int u, v, w;
}e[M*2]; // 双向边,记得*2 

void add_edge(int u, int v, int w){
	e[++cnt] = (Edge){v, head[u], w};
	head[u] = cnt; // 普通建边 
}

int now[N], q[N], hd, tl; // 当前弧优化 bfs队列
bool bfs(){ // bool返回是否还有增广路 
//printf("qwq!\n");
	for(int i = 1; i <= n; i++) dep[i] = inf; // 清空
	dep[s] = 0, q[hd=tl=1] = s, now[s] = head[s]; 
	while(hd <= tl){ // 整体框架就是普通bfs 
		int u = q[hd++]; // 取出队首
		for(int i = head[u]; i; i = e[i].v){
			if(e[i].w > 0 && dep[e[i].u] == inf){
				// 还有容量剩余 且没有遍历过
				q[++tl] = e[i].u; // 就是,至少要记得加点…… 
				now[e[i].u] = head[e[i].u]; // 重置当前弧 
				dep[e[i].u] = dep[u]+1; // 记录分层
				if(e[i].u == t) return 1; // 抵达汇点 
			}
		} 
	} return 0; // 没有增广路 
}

int dfs(int u, int sum){ // 所在点 流量统计 
	if(u == t) return sum; // 抵达汇点返回
	int flow = 0; // 流量统计 
	for(int i = now[u]; i && sum; i = e[i].v){
		now[u] = i; // 更新当前弧 
		if(e[i].w > 0 && (dep[e[i].u] == dep[u]+1)){
			// 还有容量剩余 且通向下一层
			int k = dfs(e[i].u, min(sum, e[i].w));
			if(!k) dep[e[i].u] = inf; // 移除增广完的点
			e[i].w -= k, sum -= k; // 正向减
			e[i^1].w += k, flow += k; // 反向加 
		}
	} return flow;
} 

signed main(){
	scanf("%lld%lld%lld%lld", &n, &m, &s, &t);
	for(int i = 1; i <= m; i++){
		int u, v, w; scanf("%lld%lld%lld", &u, &v, &w);
		add_edge(u, v, w); // 正向边流量初始为w
		add_edge(v, u, 0); // 反向边流量初始为0
		// 注意是双向边而非无向边,正反不能交换 
	} int ans = 0; // 统计答案
	while(bfs()) // 如果还有增广路
		ans += dfs(s, inf); // 更新答案
	printf("%lld\n", ans); 
	return 0;
}

标签:最大,增广,int,sum,网络,dfs,bfs,dep,Dinic
From: https://www.cnblogs.com/meteor2008/p/18061756

相关文章

  • 网络流建模
    byTheBigYellowDuck记录一些网络流建模的实际例题吧。相关链接:[[网络流24题]],[[Day6PartI]]PartI.二分图&最大流满流:可以根据是否满流判断合法。匹配:一些二分图的经典建模还是要记住的,往往用一条\(S\toT\)的路径表示一次匹配。最小点覆盖=最大匹配=最大......
  • 第一章 人工神经网络基础
    1.1人工智能与传统机器学习学习心得:传统机器学习(ML):需要专业的主题专家人工提取特征,并通过一个编写良好的算法来破译给定的特征,从而判断这幅图像中的内容。输入-->人工提取特征-->特征-->具有浅层结构的分类器-->输出当存在欺骗性的图片出现时可能会失效,我们需要创建能够精细......
  • Oracle VM VirtualBox网络设置
    首先说明vmWare功能比VirtualBox强大,网卡设置也更加灵活,并且可以一种模式搞定你所有的需求,如果能用vmWare那就就优先用vmWareVirtualBox的网络设置和vmWare的网络设置不同vmWare的NAT模式和hostOnly模式都会在宿主机中映射一个虚拟网卡,通过这个网卡宿主机可以通过IP地址链......
  • 吴恩达神经网络-第一周
    吴恩达神经网络学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。神经网络(NeuralNetworks)发展历程神经元和大脑(Neuronsandthebrain)多个树突接受信号,通过轴突把信号传给下一个神经元通过软件模仿大脑工作,但大脑实际怎么工作的人们并不清楚,只是......
  • 云时代,监控系统NTP网络时钟同步(授时服务器)应用方案
    云时代,监控系统NTP网络时钟同步(授时服务器)应用方案云时代,监控系统NTP网络时钟同步(授时服务器)应用方案京准电子科技官微——ahjzsz随着大数据、云计算时代的到来,各行业信息化建设的不断提升,信息化下的各个系统不再单独处理各自业务,而是趋于协同工作,因此,各个单元的时间同步......
  • FIT1047计算机系统、网络和安全
    FIT1047计算机系统、网络和安全-S12024课业2——流程和MARIE编程目的过程和程序使计算机做我们希望它们做的事情。在本课业的第一部分,学生将调查运行的过程在他们的电脑上。第二部分是关于MARIE汇编中的编程语言这将使学生能够展示他们对处理器工作的基本方式。本课业涉及单元学......
  • 开启网络共享,局域网内其他设备找不到本设备
    1.高级共享设置开启所有网络的文件共享和发现2.WIN+Rservices.msc进入服务管理 3.找到服务“FunctionDiscoveryResourcePublication4.服务启动 5.网络发现右键刷新,设备出现 ......
  • docker network之 自定义网络(重点,多容器时都是使用这个)
    原来的默认使用bridge模式,创建好容器以后,2个容器使用ip地址去ping对方的ip是ok的,但是按照容器的服务名字取ping就失败: 我们知道容器在重启后,ip是可能变化的。所以那总不可能按照ip去访问吧,最好是按照服务名去访问,那怎么处理呢,请看下方:dockernetworklsdockernetworkcrea......
  • 网工入门-中小型网络系统综合实验
    一、实验要求1.网络中有3个不同部门,均可自动获取地址2.各部门可互相访问,也可访问内网服务器172.16.100.13.PC1不允许访问互联网,PC2和PC3可以访问互联网4.内网服务器对外发布的地址为64.1.1.3,互联网用户可以访问这台服务器5.内网服务器的域名是www.aaa.co......
  • 卷积神经网络调参之学习率
    原文链接:https://blog.csdn.net/hzqgangtiexia/article/details/80509211学习率对于深度学习是一个重要的超参数,它控制着基于损失梯度调整神经网络权值的速度,大多数优化算法(SGD、RMSprop、Adam)对其都有所涉及。学习率越小,损失梯度下降的速度越慢,收敛的时间更长,如公式所示:new_wei......