首页 > 其他分享 >[MRCTF2020]Transform 1

[MRCTF2020]Transform 1

时间:2023-05-05 19:23:05浏览次数:33  
标签:33 Des Transform 0x79 int flag 字符串 MRCTF2020

查壳:

64位,先看看运行有问题吗:

任意输入给你弹了一个wrong

进IDA看看:

解释:输入一个字符串,要满足字符串的长度为33,不然就报错。接下来是在输入的字符串中拿出特定的字符,进行异或后得到一个新的字符串,最后与特定的字符串对比。

这样看来,我们先看要对比的字符串:

还不短,但是我们只拿我们需要的,也就是只拿33个字符(数据)(这些数据由上分析,是经过加密后的,那么拿它来解密得到原型):

知道你想写脚本了,但是你先别急,我们只拿我们需要的数据,就33位。其他的不用:(好了可以写脚本了)

Des = [0x67, 0x79, 0x7B, 0x7F, 0x75, 0x2B, 0x3C, 0x52, 0x53, 0x79,
       0x57, 0x5E, 0x5D, 0x42, 0x7B, 0x2D, 0x2A, 0x66, 0x42, 0x7E,
       0x4C, 0x57, 0x79, 0x41, 0x6B, 0x7E, 0x65, 0x3C, 0x5C, 0x45,
       0x6F, 0x62]
Des2 = [0x09, 0x0A, 0x0F, 0x17, 0x07, 0x18, 0x0C, 0x06, 0x01, 0x10, 0x03, 0x11, 0x20, 0x1D, 0x0B, 0x1E, 0x1B, 0x16,
        0x04, 0x0D, 0x13, 0x14, 0x15, 0x02, 0x19, 0x05, 0x1F, 0x08, 0x12, 0x1A, 0x1C, 0x0E]
flag = ''
for i in range(len(Des)):
       flag += chr(Des[i] ^ Des2[i])
print(flag)

得到一串乱的字符串“nsthr30TRiTO}_p31pFs_ClCr{z4N_sl”看着很像flag吧,我也觉得。再去分析函数,发现这些字符都是从输入的字符串中提取的,我们再写脚本给他放回去

这里采用的是c++,(本人比较差,不怎么会用python)

char flag1[33];
int main(){
    string flag = "nsthr30TRiTO}_p31pFs_ClCr{z4N_sl";
    int a[] = {9,10,15,23,7,24,12,6,1,16,3,17,32,29,11,30,27,22,4,13,19,20,21,2,25,5,31,8,18,26,28,14,};
    for (int i = 0; i < 32; i++) {
        flag1[a[i]] = flag[i];
    }
    flag1[0] = 'f';
    cout << flag1 <<endl;
    return 0;
}

得到flag{Tr4nsp0sltiON_Clph3r_1s_3z}收工。

标签:33,Des,Transform,0x79,int,flag,字符串,MRCTF2020
From: https://www.cnblogs.com/TFOREVERY/p/17375085.html

相关文章

  • transformers在ctr中的应用
    文章目录1.背景2.相关论文解析2.1《AutoInt:AutomaticFeatureInteractionLearningviaSelf-AttentiveNeuralNetworks》2.1.1论文贡献2.1.2模型结构2.1.2.1输入2.1.2.2注意力机制层2.1.3实验结果2.2《BehaviorSequenceTransformerforE-commerceRecommendationin......
  • 2023AAAI_Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and Tran
    一.motivition1.之前的数据集分辨率较低二.contribution1.提出两个超高清数据集UHD-4k和UHD-8k2.网络结构LLFormer(网络结构类似2022CVPR_Restormer:EffificientTransformerforHigh-ResolutionImageRestoration.)三.Network 网络架构类似于:2022CVPR_Restormer:......
  • Transformer学习
    Transformer学习此帖用于整理回顾自己学transformer的一些问题和知识极好的博客和资料:Transformer模型详解-CSDN博客:原理讲的很清楚举个例子讲下transformer的输入输出细节及其他-知乎(zhihu.com):讲的是输入输出的细节Transformer论文逐段精读【论文精读】B站:李沐dalao......
  • 【pytorch】土堆pytorch教程学习(四)Transforms 的使用
    transforms在工具包torchvision下,用来对图像进行预处理:数据中心化、数据标准化、缩放、裁剪、旋转、翻转、填充、噪声添加、灰度变换、线性变换、仿射变换、亮度/饱和度/对比度变换等。transforms本质就是一个python文件,相当于一个工具箱,里面包含诸如Resize、ToTensor、Nor......
  • [Prompt] Transforming
    UniversalTranslatorImagineyouareinchargeofITatalargemultinationale-commercecompany.UsersaremessagingyouwithITissuesinalltheirnativelanguages.Yourstaffisfromallovertheworldandspeaksonlytheirnativelanguages.Youneed......
  • 凭“难听”上热搜的 idol 们,不如考虑下让 Transformer 帮您作曲?
    视频制作|白鹡鸰编|小轶考虑到“AI音乐”这一主题的特殊性,唯有多媒体的视频形式才能更好地给大家带来视听上的多重感受。于是,小屋的白鸟鸟同学在科研间隙连续肝了好几个晚上,才得以完成这次视频。然而在上周的推送中,不知道微信出了什么bug,最最精华的视频部分居然消失了!所以今......
  • 李宏毅transformer笔记
     首先这里解决的问题是Seq2Seq列出各种场景,语音识别,机器翻译,chatbot 当前现在NLP模型之所以这么重要,在于他的通用能力,很多场景都可以转换成Seq2Seqsummary,情感分析啊,只要你能通过QA和机器交互的场景都可以是Seq2Seq这里的例子,语法树解析,多元分类,甚至是对象识别Seq2Seq......
  • transform
    解码器的结果是一个向量,如何变成一个单词的?就是下图......
  • An Image Is Worth 16x16 Words: Transformers For Image Recognition At Scale
    模型如下图所示:将H×W×C的图像reshape成了N×(P2×C),其中(H,W)是图像的原始分辨率,C是通道数,(P,P)是每个图像块的分辨率,N=H×W/P2为图像块的数量,将一个图像块使用可学习的线性层映射到维度为D的隐藏向量,如式(1)所示,线性映射的输出称为patchembeddings.在patchembeddin......
  • 【阅读】Transformer
    参考AttentionIsAllYouNeedAGeneralSurveyonAttentionMechanismsinDeepLearning注意力足矣(AttentionIsAllYouNeed)一般注意力模型这个模型接受一个输入,执行指定的任务,然后产生所需的输出输入\(X_{d_x\timesn_x}=[{\boldsymbolx}_1,\dots,{\bold......