首页 > 其他分享 >gdb_learn

gdb_learn

时间:2023-06-07 11:14:35浏览次数:30  
标签:程序 gdb 表达式 learn 简写 断点 运行

GDB

基本gdb命令

运行有关命令

run(简写r): 运行程序,当遇到断点后,程序会在断点处停止运行,等待用户输入下一步的命令。

continue(简写c):继续执行,到下一个断点处(或运行结束)

next(简写n): 单步跟踪程序,当遇到函数调用时,直接调用,不进入此函数体;

step(简写s):单步调试如果有函数调用,则进入函数;与命令n不同,n是不进入调用的函数的

until:运行程序直到退出循环体; / until+行号: 运行至某行

finish: 运行程序,直到当前函数完成返回,并打印函数返回时的堆栈地址和返回值及参数值等信息。

quit:简记为 q ,退出gdb


断点有关命令



break n(简写b n):在第n行处设置断点 ;可以带上代码路径和代码名称: b OAGUPDATE.cpp:578)

break func:在函数func()的入口处设置断点,如:break cb_button

delete 断点号n:删除第n个断点

disable 断点号n:暂停第n个断点

enable 断点号n:开启第n个断点

clear 行号n:清除第n行的断点

info breakpoints(简写info b) :显示当前程序的断点设置情况


显示有关的命令

list(简写l):列出程序的源代码,默认每次显示10行。

list 行号:将显示当前文件以“行号”为中心的前后10行代码,如:list 12

list 函数名:将显示“函数名”所在函数的源代码,如:list main

print 表达式:简记为 p ,其中“表达式”可以是任何当前正在被测试程序的有效表达式,比如当前正在调试C语言的程序,那么“表达式”可以是任何C语言的有效表达式,包括数字,变量甚至是函数调用。

print a:将显示整数 a 的值

print name:将显示字符串 name 的值

display 表达式:在单步运行时将非常有用,使用display命令设置一个表达式后,它将在每次单步进行指令后,紧接着输出被设置的表达式及值。如: display a

watch 表达式:设置一个监视点,一旦被监视的“表达式”的值改变,gdb将强行终止正在被调试的程序。如: watch a

where/bt :当前运行的堆栈列表

set args 参数:指定运行时的参数

show args:查看设置好的参数

info program: 来查看程序的是否在运行,进程号,被暂停的原因

多进程有关的命令

follow-fork-mode

set follow-fork-mode [parent| child]   设置调试进程
show follow-fork-mode             	   查看当前进程

detach-on-fork

set detach-on-fork [on|off] 	调试当前进程时,其它进程是运行还是挂起

inferiors

info inferiors    查询当前进程
inferior <inferior num>  切换要调试的进程

多线程有关的命令

info threads  查看线程

thread <ID>   切换线程

set secheduler-locking off|on|step  设置运行的线程

标签:程序,gdb,表达式,learn,简写,断点,运行
From: https://www.cnblogs.com/doincli/p/17462763.html

相关文章

  • sklearn数据集的使用
    一:安装 pipinstallsklearn 安装完成之后就是 1.scikit-lenrn数据集API介绍   sklearn.datasets    加载获取流行数据集    datasets.load_*()      获取小规模数据集,数据包含在datasets里    datasets.fetch_*(data_home=None......
  • Reward Modelling(RM)and Reinforcement Learning from Human Feedback(RLHF)for Large la
    一、RLHF技术的背景OpenAI推出的ChatGPT对话模型掀起了新的AI热潮,它面对多种多样的问题对答如流,似乎已经打破了机器和人的边界。这一工作的背后是大型语言模型(LargeLanguageModel,LLM)生成领域的新训练范式:RLHF(ReinforcementLearningfromHumanFeedback),即以强化......
  • sklearn和statsmodels中logit的区别
    sklearn中的logit是加了L2正则的逻辑回归,statsmodels中的是标准的LR 原文......
  • GDB 调试指令
     GDB调试指令arm-none-eabi-gdbexample.elftarext:50000ib  //查看所有断点ir  //查看内存寄存器break16   //设置断点,在源程序第16行处。breakfunc  //设置断点,在函数func()入口处infobreak  //查看断点信息。list    //查看调试文件n......
  • Contrastive Learning for Representation Degeneration Problem in Sequential Recom
    目录概符号说明MotivationDuoRecContrastiveRegularization代码QiuR.,HuangZ.,YingH.andWangZ.Contrastivelearningforrepresentationdegenerationprobleminsequentialrecommendation.WSDM,2022.概对比学习之于序列推荐.符号说明\(\mathcal{V}\),ite......
  • Achieving a Better Stability-Plasticity Trade-off via Auxiliary Networks in Cont
    摘要连续学习过程中的稳定性-可塑性权衡是一个重要的问题。作者提出了AuxiliaryNetworkContinualLearning(ANCL),通过auxiliarynetwork提高了模型的可塑性。方法TheFormulationofAuxiliaryNetworkContinualLearning传统的continuallearning方法通常是在新数据集上......
  • iOS MachineLearning 系列(19)—— 分析文本中的问题答案
    iOSMachineLearning系列(19)——分析文本中的问题答案本篇文章将介绍Apple官方推荐的唯一的一个文本处理模型:BERT-SQuAD。此模型用来分析一段文本,并根据提供的问题在文本中寻找答案。需要注意,BERT模型不会生成新的句子,它会从提供的文本中找到最有可能的答案段落或句子。BERT模型的......
  • iOS MachineLearning 系列(20)—— 训练生成CoreML模型
    iOSMachineLearning系列(20)——训练生成CoreML模型本系列前面的文章详细的介绍了在iOS中与AI能力相关的API的使用,也介绍了如何使用训练好的CoreML模型来实现更强大的AI能力。然而,无论是成熟的API提供的能力,还是各种各样的三方模型,有时候都并不能满足某一领域内的定制化需求。当我......
  • Reinforcement Learning之Q-Learning - Python实现
    算法特征①.以真实reward训练Q-function;②.从最大Q方向更新policy\(\pi\)算法推导PartⅠ:RL之原理整体交互流程如下,定义策略函数(policy)\(\pi\),输入为状态(state)\(s\),输出为动作(action)\(a\),则,\[\begin{equation*}a=\pi(s)\end{equation*}\]令......
  • tflearn tensorflow LSTM predict sin function
    from__future__importdivision,print_function,absolute_importimporttflearnimportnumpyasnpimportmathimportmatplotlibmatplotlib.use('Agg')importmatplotlib.pyplotaspltimporttensorflowastfstep_radians=0.001steps_of_histor......