我们在日常工作/学习/生活有很多场景需要使用提示词,比如说:
- 快速总结文章
- 快速排版
- 解释概念
- 翻译
- 其它经常面对的任务
但是使用提示词有几个痛点:
- 你很难临时写一个非常完整的提示词
- 你凑合写的提示词,又担心结果不满意
- 如果已经保存了完备的提示词,复制粘贴又很麻烦
有没有办法在我们要使用提示词的时候,可以用最快的方式调用,并且不用担心提示词的长短问题?
受到了小林学长(B站搜AI学长小林
)的启发(我找不到原来的视频),可以借助微信输入法的“常用语”功能,把提示词“预存”进去,使用简单的“输入码”快速调用。
微信输入法-常用语功能
下面截图是我在微信输入法-常用语里面预存的“常用语”,除了提示词,还有很多经常输出、但是输入法不支持的关键词或者短语,比如:
- 常用输入:报销用的公司抬头,邮箱
- 人工智能的概念词:GPT-4,GPTs,Llama 3.1
- 特殊的概念:Mece 法则(我经常要求 LLM 用这个法则自查)
- 特殊的网址:可以把不能被LLM 读取的网站变成可读取,后面演示
- ……
在哪里设置?
8941722742077_.pic
然后,我还特别喜欢微信输入法简洁的界面,简直太特么清爽了,和别家对比起来,它就是输入法界的“白月光”。
该有的都有,不该有的通通没有。好吧,安利到这里,相信能够帮微信输入法拉来不少用户。
使用示例
下面通过一个完整的“工作流”,展示使用效果。
- 提炼文章观点
- 提炼作者的推理过程
- 文章排版
1. 提炼文章的观点
我订阅了很多公众号,但是看不过来,尤其是那些动辄几千字的,技术性,科普性的文章。
然而,我对这类文章又有很强的需求:
- 我想知道文章的结论,看看是否值得读
- 提取文章的数据/事实/案例,用于日后引用
- 对于研究性的文章,我想知道他们怎么推导结论
很多文章会把观点和事实混淆(不是蠢就是坏),我们也不容易从中区分,那么大模型恰好可以帮我们快速区分文章的观点和事实,再加上数据,构成了一篇文章的核心内容:
- 观点:观点是主观的,但是可以给我提供看问题的角度;
- 事实/数据:事实和数据是客观的,是构筑观点的基石;不能光听取片面的观点。
在此基础上,结合布鲁姆知识分类规则,我增加了:
- 概念:文章提出的关键概念影响我对文章的理解,LLM 顺手就帮我解读了
- 规则:指能表达在前提和结论之间的因果关系的一种形式;
- 元知识:关于知识的知识,用来描述一类知识或知识集合的内容、结构和特征。
最终生成了提示词:
提炼这篇文章当中提及的[观点],[概念],[事实],[规则],[数据]和[元知识],使用 Mece 法则检查后输出。要求:
- 对于[概念],搜索你的知识库和互联网,使用一句话解释;
- 理解并概括文章提到或者隐含的[元知识],展开阐述
添加到“常用语”,“输入码”是“提炼”:
一般来说,我都是用kimi总结。
- 在移动端复制微信文章链接
- 粘贴到kimi对话框
- 再通过输入码输出提示词 kimi 就会开始它的工作
下面是一个示例:
不知道你对这个示例有何看法?反正我是比较满意的。每一个“模块”都有相应的作用,既有点(观点/事实/数据),还有线(规则)和面(元知识)。
这样拆解下来,我可以快速掌握文章的核心(3 分钟浏览完),很多时候都不需要再去细细阅读原文。
我还可以把关键的信息提取并保存下来,比如里面的数据。对于感兴趣的部分,我还可以让 kimi 展开解释。
另外,我还会使用百小应
,海螺 AI
帮我提炼微信文章。如果是海外文章,也可以使用ChatGPT
。
2. 分析推理过程
对于一些结论有价值或者让我意外的高质量文章,我很想知道作者是怎么一步一步推导出结论。
我想了解或者学习他的论证过程。于是撰写了以下提示词:
作者是如何一步一步论证他的观点的?请梳理作者的逻辑,使用非专业人士能听懂的表达,并且结合打比方或者类比的方式方便读者理解。
输入码:推论
尤其是汇报研究结果,比如心理学研究的文章,可以快速了解研究者的研究过程,很有价值。
为了让我容易理解,特意要求它使用“非专业人士”听懂的表达,结合打比方或者类比的方式。
看看效果:
上面的示例就完整的展示了作者的论证过程:先是引入问题,提出观点,然后解释概念,列举事实……最后提出解决方案。
3. 排版分享
对于AI提炼出的文章核心内容,我们希望分享到社交媒体,如果直接复制粘贴,缺少一些可读性。
那么可以利用LLM帮你完成内容排版。而适合社交媒体阅读的排版有一些通用的规则和套路,比如要使用emoji。
这里我就直接使用kimi官方的排版提示词:
你是一个文字排版大师,能够熟练地使用 Unicode 符号和 Emoji 表情符号来优化排版已有信息, 提供更好的阅读体验
你的排版需要能够:
- 通过让信息更加结构化的体现,让信息更易于理解,增强信息可读性
## 技能:
- 熟悉各种 Unicode 符号和 Emoji 表情符号的使用方法
- 熟练掌握排版技巧,能够根据情境使用不同的符号进行排版
- 有非常高超的审美和文艺素养
- 信息换行和间隔合理, 阅读起来有呼吸感
## 工作流程:
- 作为文字排版大师,你将会在用户输入信息之后,使用 Unicode 符号和 Emoji 表情符号进行排版,提供更好的阅读体验。
- 标题: 整体信息的第一行为标题行
- 序号: 信息 item , 前面添加序号 Emoji, 方便用户了解信息序号; 后面添加换行, 将信息 item 单独成行
- 属性: 信息 item 属性, 前面添加一个 Emoji, 对应该信息的核心观点
- 链接: 识别 HTTP 或 HTTPS 开头的链接地址, 将原始链接原文进行单独展示. 不要使用 Markdown 的链接语法
## 注意:
- 不会更改原始信息,只能使用 Unicode 符号和 Emoji 表情符号进行排版
- 使用 Unicode 符号和 Emoji 表情时比较克制, 每行不超过两个
- 排版方式不应该影响信息的本质和准确性
- 只有在用户提问的时候你才开始回答,用户不提问时,请不要回答
输入码:排版
看看效果:
怎么样?上面这样的排版是不是舒服多了?复制到朋友圈,社群里面是不是很好看?
其它场景提示词分享
下面是一些我常用的提示词,当然你根据自己的需要设置:
- 拆解概念
将[ ]内的内容拆分成更小的、更易于理解的部分。使用比喻和现实生活中的例子来简化这个概念,使其更加亲切和易于把握
- 搜索数据
我正在寻找有关 [主题] 的最新数据和统计信息。你能搜索网络并总结过去 12 个月内可靠来源发布的关键数据吗?请以项目符号的形式呈现数据,并引用你的来源。
- 增强搜索
扮演一位经验丰富的图书馆员。我会向您提出一个开放性问题。您必须通过交叉参考至少 5 个严肃且最新的在线资源,尽可能客观和如实地回答。您的报告应呈现该问题的主要观点和争论,并准确引用所使用的资源。我的问题是:[插入开放性问题]。
- 翻译
理解[ ]中内容在源语言语境中的含义,如果是英文则翻译成中文,反之,翻译成英文,确保译入语的意思和源语言的意思一致,并且符合以译入语为母语的人士的阅读习惯。[ ]
这个多说一句,这个提示词自动识别要翻译的内容,实现中英互译,并且强调了要符合母语使用者的阅读习惯。另外,特别使用了翻译领域的专用词汇:译入语和源语言。
在 ChatGPT 和 Claude 当中效果不错。
- 教学
充分理解和学习文章的内容,并且搜索互联网,补充你的认知不足。你是最有耐心,最友好的老师,你在任何领域都是专家。假设我是该领域的非专业人士,请你设计教学方案,让我一步一步掌握其中的内容。教学方案要求通俗易懂,结合打比方或者类比等方式。在确认我掌握某个前置知识点之后,再进入下一个知识点教学。
给 LLM 一篇专业文章,它会根据文章内容,设置若干课程,一步一步引导你学习。
写在最后
过去一直有使用kimi帮我总结文章的习惯(主要在手机),当然,每次都要自己手打,还是很麻烦。
自从使用了上面这套方法,几乎每天都会利用微信输入法的“常用语”快速输入提示词,帮我提炼各类文章,以及执行各种任务。
整体阅读量和效率提升很大。所以如果你也有频繁的、重复性的、规则清晰的场景,建议自己撰写提示词。
或者你还想到什么日常常用的场景?可以提出给我帮你写提示词哦!
希望对你有帮助!
如何学习大模型
现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。
作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。
我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。
一、AGI大模型系统学习路线
很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。
二、AI大模型视频教程
三、AI大模型各大学习书籍
四、AI大模型各大场景实战案例
五、结束语
学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。
再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。
因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。
标签:10,输入法,AI,模型,使用,提示,文章,排版,何止 From: https://blog.csdn.net/python12345678_/article/details/140951576