首页 > 其他分享 >「CF515E」 Drazil and Park

「CF515E」 Drazil and Park

时间:2024-03-22 15:35:15浏览次数:20  
标签:dist read ll Park mid Drazil CF515E 2h sum

题意

有一组圆环排列的树,给出 \(i\) 到 \(i+1\)(\(n\) 到 1)的距离 \(d_i\) 和第 \(i\) 棵树的高度 \(h_i\)。

一只猴子每天选择两棵树 \(x,y\),然后消耗 \(2(h_x+h_y)+dist(x,y)\) 的体力,其中 \(dist(x,y)\) 表示 \(x\) 到 \(y\) 的距离。

每天都有孩子在 \(a_i\sim b_i\) 的区间内玩耍,猴子只能在其他区间内活动,因此 \(dist(x,y)\) 是一定的。

给出每天的 \(a,b\),求猴子每天能消耗的最大体力。

分析

求区间最大值,考虑用线段树。

两棵树之间的距离可以破环成链后前缀和求解,设 \(sum_i\) 为第 \(i\) 位之前的距离和。

不妨设 \(y>x\),则原函数为 \(2h_x+2h_y+sum_y-sum_x=2h_x-sum_x+2h_y+sum_y\)。

可以用线段树维护 \(2h_i+sum_i\) 和 \(2h_i-sum_i\),然后区间查找最大值即可。(其实是很裸的线段树)

Code

#include<bits/stdc++.h>
#define ls (x<<1)
#define rs (x<<1|1)
#define mid ((l+r)>>1)
typedef long long ll;
using namespace std;
inline ll read(){ll x=0,f=1;char c=getchar();while(c<48||c>57){if(c==45)f=0;c=getchar();}while(c>47&&c<58)x=(x<<3)+(x<<1)+(c^48),c=getchar();return f?x:-x;}
const ll maxn=2e5+5;
ll n,m,d[maxn],h[maxn],sum[maxn];
struct linetree{ll v1,v2,ans;}t[maxn<<2];
inline linetree operator+(linetree a,linetree b){
	return {max(a.v1,b.v1),max(a.v2,b.v2),max({a.ans,b.ans,a.v2+b.v1})};
}
inline void buildtree(ll x,ll l,ll r){
    if(l==r){
        t[x].v1=h[l]*2+sum[l];
		t[x].v2=h[l]*2-sum[l];
        return;
    }
    buildtree(ls,l,mid),buildtree(rs,mid+1,r);
    t[x]=t[ls]+t[rs];
}
inline linetree treeask(ll x,ll s,ll e,ll l,ll r){
    if(l>=s&&r<=e)return t[x];
	if(e<=mid)return treeask(ls,s,e,l,mid);
	else if(s>mid)return treeask(rs,s,e,mid+1,r);
	return treeask(ls,s,e,l,mid)+treeask(rs,s,e,mid+1,r);
}
signed main(){
	n=read(),m=read();
	for(ll i=1;i<=n;++i)d[i]=d[i+n]=read();
	for(ll i=1;i<=n;++i)h[i]=h[i+n]=read();
	for(ll i=1;i<=n*2;++i)sum[i]=sum[i-1]+d[i-1];
	buildtree(1,1,n*2);
	while(m--){
		ll a=read(),b=read(),ans=0;
		if(a<=b){
			if(a!=1)ans=max(ans,treeask(1,1,a-1,1,n<<1).ans);
			if(b!=n){
				ans=max(ans,treeask(1,b+1,a+n-1,1,n<<1).ans);
				ans=max(ans,treeask(1,b+n+1,n<<1,1,n<<1).ans);
			}
		}
		else ans=max(ans,treeask(1,b+1,a-1,1,n<<1).ans);
		printf("%lld\n",ans);
	}
}

标签:dist,read,ll,Park,mid,Drazil,CF515E,2h,sum
From: https://www.cnblogs.com/run-away/p/18089594

相关文章

  • Spark中driver、executor、job、stage、task、partition你懂吗?
        对于一个要提交到大数据集群的spark任务而言,准确说这个任务应该叫一个application,因为application是分布式任务,因此需要分配到多台机器中运行,而为了方便每个application的自我管理,这个多台机器中会有一台机器被选为小组长来管理整个application,而这个小组长的名字......
  • Spark重温笔记(一):一分钟部署PySpark环境,轻松上手Spark配置
    Spark学习笔记前言:今天是温习Spark的第1天啦!主要梳理了Spark环境搭建,3种运行模式,以及spark入门知识点,任务提交方式,参数配置细节,以及启动和端口号等介绍,总结了很多自己的理解和想法,希望和大家多多交流,希望对大家有帮助!Tips:"分享是快乐的源泉......
  • SparkSQL与RDD的选择?
        对当下的企业级数据应用来说,SparkSQL的应用空间肯定要比单纯的写RDD处理大很多,因为SparkSQL比RDD好写的多,也更贴近业务需求和更友好的能处理数据,而且技术门槛也更低。        但RDD是Spark中所有的数据抽象的基础,最大的特点是对开发者而言暴露的是不带sch......
  • 基于python+django+Spark的动漫推荐可视化分析系统
    摘 要近年来,随着互联网的蓬勃发展,企事业单位对信息的管理提出了更高的要求。以传统的管理方式已无法满足现代人们的需求。为了迎合时代需求,优化管理效率,各种各样的管理系统应运而生,随着各行业的不断发展,基于Spark的国漫推荐系统的建设也逐渐进入了信息化的进程。这个系统......
  • Hadoop与Spark的x86和ARM混合集群部署【环境搭建篇】
    ​笔者在完成课程设计时,突然想到把大数据框架同时部署到PC端虚拟机以及ARM架构的Linux板上,这篇博客记录集群部署流程以及例程测试。部署架构如下图:若下文与架构图冲突,则以架构图为准。运行环境:PC方面,使用两台Ubuntu20.04LTSFocalFossa虚拟机ARM板子则使用香橙派5(R......
  • 基于 Spark 的电商用户行为分析系统
    摘要    针对传统的大数据处理框架Hadoop在执行计算任务时抽象层次低、运行速度慢、无法实时计算等问题,提出了一种基于内存的分布式框架Spark作为计算引擎的方法。结合Hadoop框架中的分布式文件存储技术,设计了一个电商用户行为分析系统。首先根据数据特点建......
  • Spark的相关参数配置
    一、任务占用资源计算executor占用CPU=executor_instances*executor_cores*10*0.8(0.1核)executor占用内存=executor_instances*(executor.memory+max(executor.memoryOverhead,OffHeap.size)+executor.pyspark.memory)(GB)其中,若参数未手动设置,会分配默认值。也......
  • Spark读取和写入MySQL
     背景说明SparkSQL还包括一个数据源,该数据源可以使用JDBC从其他数据库读取数据。这功能应优先于使用 JdbcRDD。这是因为返回了结果作为DataFrame,它们可以很容易地在SparkSQL中处理或与其他数据源联接。JDBC数据源也更易于从Java或Python使用,因为它不需要用户......
  • spark大数据快速编程入门
    1.Hadoop生态圈相关组件 namenode:master节点,处理客户端的请求。datanode:slave节点,存储实际数据,汇报存储信息给namenode。client:切分文件,访问hdfs,与namenode交互,获取文件位置信息,与datanode交互,读取和写入数据。secondarynamenode:辅助namenode,分担其工作量,紧急情况下和辅......
  • Spark知识小解
    1.Hadoop生态圈及组件:在了解Hadoop生态系统及其组件之前,我们首先了解一下Hadoop的三大组件,即HDFS、MapReduce、YARN,它们共同构成了Hadoop分布式计算框架的核心。HDFS(HadoopDistributedFileSystem):HDFS是Hadoop的分布式文件系统,它是将大规模数据分散存储在多个......