首页 > 其他分享 >C. Training Before the Olympiad

C. Training Before the Olympiad

时间:2023-12-31 13:55:27浏览次数:41  
标签:同奇 Training 奇数 int sum 合并 偶数 Olympiad Before

原题链接

题解

事实1.两个数合并后的数一定是偶数
事实2.如果没有发生奇数和偶数合并,那么最终的结果一定是所有数的和
事实3.每发生一次奇数和偶数合并,最后的结果会减一

总结

综上所述,Masha会尽量选择同奇或同偶合并,但在有同奇的情况下,会优先选择同奇,因为合并会产生偶数,且Olya需要用到奇数与偶数合并

代码

#include<bits/stdc++.h>
using namespace std;
long long sum[100005]={0},a[100005]={0};
int main()
{
    int t;
    cin>>t;
    while(t--)
    {
        int n;
        cin>>n;
        for(int i=1;i<=n;i++){cin>>a[i];sum[i]=sum[i-1]+a[i];}
        cout<<a[1];
        long long js=a[1]%2;
        for(int i=2;i<=n;i++)
        {
            js+=a[i]%2;
            cout<<" ";
            if(js%3%2)cout<<sum[i]-js/3-1;
            else cout<<sum[i]-js/3;
        }
        puts("");
    }
    return 0;
}

标签:同奇,Training,奇数,int,sum,合并,偶数,Olympiad,Before
From: https://www.cnblogs.com/pure4knowledge/p/17937458

相关文章

  • CF1916C Training Before the Olympiad
    思路首先,我们可以考虑两个人会怎么操作,如果是选择了两个偶数和两个奇数,那么答案不会减小,如果选择了一个奇数一个偶数,那么答案会减小一。所以想使答案大的人应该尽量选择前一种方案,想使答案小的人应该尽量选择后一种方案。但这还不是最优的,想使答案大的人在可以选择两个奇数时,绝......
  • InstructGPT《InstructGPT: Training language models to follow instructions with h
    背景GPT-3虽然在各大NLP任务以及文本生成的能力上令人惊艳,但是他仍然还是会生成一些带有偏见的,不真实的,有害的造成负面社会影响的信息,而且很多时候,他并不按人类喜欢的表达方式去说话。在这个背景下,OpenAI提出了一个概念“Alignment”,意思是模型输出与人类真实意图对齐,符合人......
  • GPT-1论文《Improving Language Understanding by Generative Pre-Training》解读
    背景GPT-1采用了两阶段训练的方式:1. 第一阶段pre-training,在海量文本上训练,无需label,根据前k-1个词预测第k个单词是什么,第一阶段的训练让模型拥有了很多的先验知识,模型具有非常强的泛化性2.第二阶段在特定任务上fine-tuning,让模型能适应不同的任务,提高模型在特定任务上的准......
  • css中的::after和::before
    先来看一个::before和::after的例子,给一个元素的前后再不添加新的元素的时候增加内容:<viewclass="info-before">测试before和after</view>.info-before{font-weight:bold;margin:30px;}.info-before::before{content:"添加在::before";......
  • A fast and simple algorithm for training neural probabilistic language models
    目录概NoisecontrastiveestimationMnihA.andTehY.W.Afastandsimplealgorithmfortrainingneuralprobabilisticlanguagemodels.ICML,2012.概NCE用在语言模型的训练上.Noisecontrastiveestimation给定context\(h\),下一个词为\(w\)的条件概率按......
  • 【论文阅读笔记】【多模态-Referring & Grounding】 Grounded Language-Image Pre-tra
    GLIPCVPR2022(Oral,BestPaperFinalist)读论文思考的问题论文试图解决什么问题?写作背景是什么?问题:如何将视觉-语言预训练技术应用在以目标检测为代表的fine-grainedimageunderstanding上面?如何在增加训练数据的同时,使目标检测模型具有良好的语义理解能力,能......
  • GLIP:Grounded Language-Image Pre-training
    GroundedLanguage-ImagePre-training目录GroundedLanguage-ImagePre-training简介摘要Introduction统一的损失函数方法总结参考资料GLIPv1:GroundedLanguage-ImagePre-trainingGLIPv2:UnifyingLocalizationandVLUnderstanding代码地址:https://github.com/micr......
  • after before compareTo
    入场日期要求晚于该人员在系统中登记的最后一次离场日期Java根据以上代码需求例子importjava.sql.*;importjava.util.Date;publicclassMain{publicstaticvoidmain(String[]args){//根据实际情况,替换以下连接信息Stringurl="jdbc:mysql:......
  • 关于 FontAwesome icon 的 before 伪元素
    看下图这个放大镜的例子:.fa-search:before是一个CSS选择器,它被用于指定某个具有类名为"fa-search"的元素的伪元素":before"。这个样式规则的作用是在该元素的内容之前插入一个字符,具体的字符是"\f002"。在这里,"\f002"是一个Unicode字符码,它通常用于表示字体图标。FontA......
  • 关于 Web 开发中的 CSS before 伪元素
    我用Chrome打开一个网页后,F12打开Chrome开发者工具,在Elements面板观察到一些DOM元素有::before,这是什么含义?在Web前端开发中,::before是CSS伪元素之一,它用于在指定元素的内容前插入生成的内容。这个伪元素允许开发者通过CSS样式向元素的前部添加额外的内容,而无需修......