首页 > 其他分享 >word学习1()

word学习1()

时间:2023-05-01 13:00:10浏览次数:31  
标签:word 删除 打印 快捷键 学习 打开 光标

1.基础设置

建议打开“显示/隐藏标题标志”

 建议打开“打印预览和打印”

 

2.常用快捷键

 3.Alt快捷键

4.删除键

backspace键:删除光标左边内容

delete键:删除光标右边内容

 

标签:word,删除,打印,快捷键,学习,打开,光标
From: https://www.cnblogs.com/hmy22466/p/17366409.html

相关文章

  • 自监督学习效果差?Meta AI 提出 Q-score 快速过滤错误样本!
    文|jxyxiangyu自监督学习指的是不依靠人工标注数据,直接从数据中学习到有用的特征表示。自监督学习中所采用的监督信息可以是“是否属于同一实例样本”的二分类标签(对比学习),也可以是一段连续的自然语言文本的下一个词(自回归语言模型)。然而自监督学习相关的论文看多了,感觉也就那么......
  • 关于深度学习框架的忆苦思甜
    作者:卖萌酱大家好,我是卖萌酱。对一个深度学习从业者来说,无论你的场景是CV、NLP、Speech还是搜广推现金牛,手头使用最高频的工具莫过于深度学习框架,涵盖了模型训练、模型部署,乃至数据标注、数据清洗等环节。站在2022年的视角下,回顾曾经被深度学习框架搞崩溃的瞬间,真心觉得现在的框架......
  • 关于Linux系统-sshd服务-PasswordAuthentication-选项的加固配置
    关于sshd服务的主配置文件,/etc/ssh/sshd_config 有一个选项叫做PasswordAuthentication,根据单词意思、就知道此选项是与密码相关的即可以知道此值默认为yes,即使不写或者注释,代表是允许用户通过密码进行ssh登录有时我们可以在加固的操作系统中看到,此值会被配置为noPasswordAu......
  • helloword
    APX文件查壳拖进64IDA,老方法得到flag{7631a988259a00816deda84afb29430a}收工。......
  • 「学习笔记」SPFA 算法的优化
    与其说是SPFA算法的优化,倒不如说是Bellman-Ford算法的优化。栈优化将原本的bfs改为dfs,在寻找负环时可能有着更高效的效率,但是最坏复杂度为指数级别。voiddfs_spfa(intu){ if(fg)return; vis[u]=true; for(pilit:son[u]){ intv=it.first; llw=......
  • 「学习笔记」Floyd 的应用
    求最短路for(intk=1;k<=n;++k){ for(inti=1;i<=n;++i){ for(intj=1;j<=n;++j){ f[i][j]=min(f[i][j],f[i][k]+f[k][j]); } }}求最小环过程记原图中\(u,v\)之间边的边权为\(val\left(u,v\right)\)。我们注意到Floyd算法......
  • OpenResty学习笔记02:为服务增加waf功能
    一.WAF简介 Web应用防护系统(也称为:网站应用级入侵防御系统。英文:WebApplicationFirewall,简称:WAF)。目前国内的几大云服务商都提供了企业级的WAF产品,且均价格不菲。好消息是,在OpenResty生态中,有一款开源的WAF可供我等学习,开源万岁! 二.开源的WAF 该WAF的作者叫赵......
  • drf学习
    fbv与cbv模式区别:f指的是function,c指的是class路径函数path后面接的不在是veiw中的函数,而是一个继承了View的一个类函数,但是该类函数的返回值是返回一个函数。drf规范:指的是根据前端页面的请求方式来进行操作,如get方式执行读取数据资源,post用于添加数据资源序列化:后端的字典......
  • 树上启发式合并学习笔记
    最近几天了解到一个很神奇的算法——dsuontree,看上去没多快实际上很快,这叫低调。好久不更了,至于反演,5月再更吧,4月的最后一天分享一下dsuontree。顺便闲话一句,4/26是我生日,也是历史二模。重链剖分dsuontree这类dsuontree适用于多次询问,每次询问需要$O(子树大小)......
  • DeepMind:用 GNN 学习通用推理算法
    文|智商掉了一地小孩子才做选择,我的模型全!都!要!近年来,基于深度神经网络的机器学习系统取得了巨大进步,尤其是在以感知为主的任务上。这一领域表现突出的模型通常要在分布中进行泛化,意味着它们的训练和验证集代表了测试输入的预期分布。相比之下,要真正掌握由推理主导的任务,即使是在......