博客
关于我
LibreOJ #6000. 「网络流 24 题」搭配飞行员
阅读量:798 次
发布时间:2023-01-31

本文共 3788 字,大约阅读时间需要 12 分钟。

二次联通门 : 

 

 

 

/*    LibreOJ #6000. 「网络流 24 题」搭配飞行员        二分图最大匹配    Dinic最大流 + 当前弧优化     */#include 
#include
#include
#define Max 10000#define INF 1e5int read (int &now){ now = 0; register char word = getchar (); while (word < '0' || word > '9') word = getchar (); while (word >= '0' && word <= '9') { now = now * 10 + word - '0'; word = getchar (); } if (now >= 0) return 1;}inline int min (int a, int b){ return a < b ? a : b;}class Net_Flow_Type{ private : int __to[Max << 2], __next[Max << 2]; int __flow[Max << 2]; int edge_list[Max]; int Edge_Count; int deep[Max], __tech_[Max]; int T; int Answer; public : Net_Flow_Type () { Edge_Count = 1; } inline void Insert_edge (int from, int to) { Edge_Count ++; __to[Edge_Count] = to; __next[Edge_Count] = edge_list[from]; edge_list[from] = Edge_Count; Edge_Count ++; __to[Edge_Count] = from; __next[Edge_Count] = edge_list[to]; edge_list[to] = Edge_Count; __flow[Edge_Count - 1] = 1; __flow[Edge_Count] = 0; } bool Bfs (int Start, int End) { std :: queue
Queue; Queue.push (Start); memset (deep, -1, sizeof deep); int now; for (deep[Start] = 0; !Queue.empty (); Queue.pop ()) { now = Queue.front (); for (int i = edge_list[now]; i; i = __next[i]) if (__flow[i] && deep[__to[i]] == -1) { deep[__to[i]] = deep[now] + 1; if (__to[i] == End) return true; Queue.push (__to[i]); } } return deep[End] != -1; } int Flowing (int now, int flow) { if (now == T || flow <= 0) return flow; int res = 0, pos = 0; for (int i = __tech_[now]; i; i = __next[i]) { if (deep[__to[i]] != deep[now] + 1 || __flow[i] <= 0) continue; res = Flowing (__to[i], min (flow, __flow[i])); if (res > 0) { flow -= res; pos += res; __flow[i] -= res; __flow[i ^ 1] += res; if (__flow[i]) __tech_[now] = i; if (flow == 0) return pos; } } return pos; } int Dinic (int Start, int End) { for (T = End; Bfs (Start, End); ) { memcpy (__tech_, edge_list, sizeof edge_list); Answer += Flowing (Start, INF); } return Answer; } };int N, M;Net_Flow_Type Make;int main (int argc, char *argv[]){ read (N); read (M); int S = N + 1, T = N + 2; for (int i = 1; i <= M; i ++) Make.Insert_edge (S, i); for (int i = M + 1; i <= N; i ++) Make.Insert_edge (i, T); for (int x, y; scanf ("%d %d", &x, &y) == 2; Make.Insert_edge (x, y)); printf ("%d", Make.Dinic (S, T)); return 0;}

 

转载于:https://www.cnblogs.com/ZlycerQan/p/7076874.html

你可能感兴趣的文章
NLP_什么是统计语言模型_条件概率的链式法则_n元统计语言模型_马尔科夫链_数据稀疏(出现了词库中没有的词)_统计语言模型的平滑策略---人工智能工作笔记0035
查看>>
NLP、CV 很难入门?IBM 数据科学家带你梳理
查看>>
NLP三大特征抽取器:CNN、RNN与Transformer全面解析
查看>>
NLP入门(六)pyltp的介绍与使用
查看>>
NLP学习笔记:使用 Python 进行NLTK
查看>>
NLP度量指标BELU真的完美么?
查看>>
NLP的不同研究领域和最新发展的概述
查看>>
NLP的神经网络训练的新模式
查看>>
NLP采用Bert进行简单文本情感分类
查看>>
NLP问答系统:使用 Deepset SQUAD 和 SQuAD v2 度量评估
查看>>
NLP项目:维基百科文章爬虫和分类【02】 - 语料库转换管道
查看>>
NLP:从头开始的文本矢量化方法
查看>>
NLP:使用 SciKit Learn 的文本矢量化方法
查看>>
NLTK - 停用词下载
查看>>
nmap 使用总结
查看>>
nmap 使用方法详细介绍
查看>>
nmap使用
查看>>
nmap使用实战(附nmap安装包)
查看>>
Nmap哪些想不到的姿势
查看>>
Nmap扫描教程之Nmap基础知识
查看>>