首页 > 其他分享 >[AGC004E] Salvage Robots

[AGC004E] Salvage Robots

时间:2024-09-17 22:25:22浏览次数:12  
标签:AGC004E 机器人 px py Robots pf1 chk Salvage pl

题意

给定一个网格图,图上有若干个机器人和一个出口。

每次操作让 所有 机器人向 上、下、左、右 移动一格,若有机器人走出边界,则直接移除该机器人,若有机器人走到出口,则回收该机器人并移除。

问可以回收到的机器人的最大数量。

\(n \le 100\)。

Sol

首先套路地,考虑把移动所有机器人转化为移动出口和边界。

于是我们就有一个很笨的想法,直接暴力枚举向上下左右各走多少格,最终的答案就是这个矩形内的机器人个数。

但是这个做法是错的,因为出口在走路径的时候是可能将之后被移除的位置走过的。

因此考虑 \(\text{dp}\),设 \(f_{l, r, u, d}\) 表示当前矩阵四维,出口所经过的机器人个数。

考虑每次新增一行或者一列,使用前缀和预处理下即可。

复杂度:\(O(n ^ 4)\)。

Code

#include <iostream>
#include <algorithm>
#include <cstdio>
#include <array>
using namespace std;
#ifdef ONLINE_JUDGE

/* #define getchar() (p1 == p2 && (p2 = (p1 = buf) + fread(buf, 1, 1 << 21, stdin), p1 == p2) ? EOF : *p1++) */
/* char buf[1 << 23], *p1 = buf, *p2 = buf, ubuf[1 << 23], *u = ubuf; */

#endif
int read() {
    int p = 0, flg = 1;
    char c = getchar();
    while (c < '0' || c > '9') {
        if (c == '-') flg = -1;
        c = getchar();
    }
    while (c >= '0' && c <= '9') {
        p = p * 10 + c - '0';
        c = getchar();
    }
    return p * flg;
}
void write(int x) {
    if (x < 0) {
        x = -x;
        putchar('-');
    }
    if (x > 9) {
        write(x / 10);
    }
    putchar(x % 10 + '0');
}
bool _stmer;

const int N = 105;

array <string, N> mp;
char strbuf[N];

array <array <array <array <int, N>, N>, N>, 2> f;
array <array <int, N>, N> pf1, pf2;

bool _edmer;
int main() {
    cerr << (&_stmer - &_edmer) / 1024.0 / 1024.0 << "MB\n";
    int n = read(), m = read(), px = -1, py = -1;
    for (int i = 1; i <= n; i++) {
        scanf("%s", strbuf);
        mp[i] = strbuf, mp[i] = " " + mp[i];
        for (int j = 1; j <= m; j++)
            if (mp[i][j] == 'E') px = i, py = j;
    }
    for (int i = 1; i <= n; i++)
        for (int j = 1; j <= m; j++)
            pf1[i][j] = pf1[i][j - 1] + (mp[i][j] == 'o'),
            pf2[i][j] = pf2[i - 1][j] + (mp[i][j] == 'o');
#define chk(x, y) (x = max(x, y))
    int pl = 0, ans = 0;
    for (int l = 0; l < py; l++) {
        f[pl ^ 1].fill(array <array <int, N>, N> ());
        for (int r = 0; r < m - py + 1; r++) {
            for (int u = 0; u < px; u++) {
                for (int d = 0; d < n - px + 1; d++) {
                    chk(ans, f[pl][r][u][d]);
                    if (l + r < py - 1)
                        chk(f[pl ^ 1][r][u][d], f[pl][r][u][d]
                            + pf2[min(px + d, n - u)][py - l - 1]
                            - pf2[max(px - u - 1, d)][py - l - 1]);
                    if (l + r < m - py)
                        chk(f[pl][r + 1][u][d], f[pl][r][u][d]
                            + pf2[min(px + d, n - u)][py + r + 1]
                            - pf2[max(px - u - 1, d)][py + r + 1]);
                    if (u + d < px - 1)
                        chk(f[pl][r][u + 1][d], f[pl][r][u][d]
                            + pf1[px - u - 1][min(py + r, m - l)]
                            - pf1[px - u - 1][max(py - l - 1, r)]);
                    if (u + d < n - px)
                        chk(f[pl][r][u][d + 1], f[pl][r][u][d]
                            + pf1[px + d + 1][min(py + r, m - l)]
                            - pf1[px + d + 1][max(py - l - 1, r)]);
                }
            }
        }
        pl ^= 1;
    }
    write(ans), puts("");
    return 0;
}

标签:AGC004E,机器人,px,py,Robots,pf1,chk,Salvage,pl
From: https://www.cnblogs.com/cxqghzj/p/18417651

相关文章

  • 学习笔记:robots.txt文件
    1.1介绍robots.txt文件是一种用于指导搜索引擎爬虫在网站上哪些页面可以被抓取,哪些页面不应该被抓取的文本文件。这个文件通常放置在网站的根目录下。1.2由来robots.txt标准最早出自1994年,由荷兰的网络管理员和搜索引擎专家MartijnKoster编写。最初称为"RobotsExclusion"......
  • P2825 [HEOI2016/TJOI2016] 游戏 与 P10945 Place the Robots
    本文中的机器人同炸弹,主要是题目描述不同,两道题目做法是本质相同的。思路:先说一下没有墙怎么办,那么当一个位置放了机器人之后,这个机器人所在的行和列是不能继续放置的。那么发现行和列几乎是独立的,考虑建二分图,若\((i,j)\)能放一个机器人,那么给\(i\toj\)建一条边。那么......
  • 提升SEO与网站可爬性 :动态生成sitemaps和robots.txt文件
    本文由ChatMoney团队出品在现代Web开发中,搜索引擎优化(SEO)是网站成功的关键因素之一。搜索引擎通过网络爬虫来索引网页,而sitemaps和robots.txt文件则是帮助这些爬虫更好地理解和索引网站内容的重要工具。sitemaps简介Sitemap(站点地图)是一种XML文件,它包含了网站上的所有URL以......
  • 动态生成sitemaps和robots.txt文件:提升SEO与网站可爬性
    本文由ChatMoney团队出品在现代Web开发中,搜索引擎优化(SEO)是网站成功的关键因素之一。搜索引擎通过网络爬虫来索引网页,而sitemaps和robots.txt文件则是帮助这些爬虫更好地理解和索引网站内容的重要工具。sitemaps简介Sitemap(站点地图)是一种XML文件,它包含了网站上的所有URL以......
  • Topcoder SRM647-Div1-Lv2 CtuRobots
    涉及知识点:动态规划题意有\(n\(\leq500)\)个机器人,每个机器人的价格为\(cost_i\(\leq10^4)\),油箱容量为\(cap_i\(\leq10^9)\),一单位燃料可以走一单位距离,你可以给购买的机器人编号,机器人\(k\)可以给机器人\(k+1\)补充燃料,但是任意时刻机器人的燃料不能超过其油箱......
  • 初中英语优秀范文100篇-096My views on robots entering the classroom-我对机器人进
    PDF格式公众号回复关键字:SHCZFW096记忆树1Withthedevelopmentoftechnology,ithasbecomepossibleforrobotstoentertheclassroom.翻译随着科技的发展,机器人进入课堂已成为可能。简化记忆课堂句子结构It"是形式主语,真正的主语是不定式短语forrobotsto......
  • CF1045G AI robots题解
    题目链接:洛谷或者CF本题考虑转化为cdq分治模型对于cdq分治来说,只需要考虑左边对右边的影响,那我们要考虑该怎样设置第一维度的左右对象。很显而易见的是抛开\(q\)限制而言,我们着眼于,如何让双方互相看到的严格条件转化为只需要关注单体看见。考虑什么情况下只需要一方看到......
  • robots.txt禁止收录协议写法
    1. 什么是robots.txt?robots.txt 是网站和搜索引擎的协议的纯文本文件。当一个搜索引擎蜘蛛来访问站点时,它首先爬行来检查该站点根目录下是否存在robots.txt,如果存在,根据文件内容来确定访问范围,如果没有,蜘蛛就沿着链接抓取。robots.txt 放在项目的根目录下。2. robots.txt......
  • Web_XCTF_WriteUp | Training-WWW-Robots
    题目分析标题大致翻译:训练WWW网络爬虫。场景内部文段大致翻译:在这个小小的训练挑战中,您将学习Robots_exclusion_standard(网络爬虫排除标准)。robots.txt文件用于网络爬虫检查它们是否被允许抓取和索引您的网站或仅部分网站。有时,这些文件揭示了目录结构,而不是保护内......
  • robots后台泄露
     [^来源:ctfshow-vip题目限免  考点:robots.txt文件泄露后台路径WP1.题目 唉,就是一道简单robots文件泄露,但是我为什么要写这个呢,因为我真的大可爱,一直搁那/robots,,,,,我说怎么没反应,,,无语,,,是robots.txt文件啊,文件我不加后缀名,我服了,我记得之前也是做过两次这种的题......