1. 概念解释
Large Language Models-大语言模型,LLMs
大模型的组成:参数文件 + 运行这些参数的代码文件
LLMs
:经验性的人工制品,目前尝试去解释参数运行的原理,但只能解释一部分,总的来说还是经验主义占优;
大模型排名:UC 伯克利主导的「LLM排位赛」(Chatbot Arena Leaderboard)
-
如何得到参数:通过数据训练得到参数,而大模型的训练就是对互联网数据进行有损压缩;
-
有了“压缩文件”,模型就世界形成了理解,进而表现为学到了东西;
-
简单来说,大模型的工作原理就是依靠包含压缩数据的神经网络对所给序列中的下一个单词进行预测;
-
由于训练是一种有损压缩,神经网络给出的东西是不能保证 100% 准确的;
第一遍训练:预训练
- 数据量庞大,以
TB
计算,低质量的; - 预训练基本是每年进行一次
第二遍训练:微调
- 质量大于数量,需要输入人工精心挑选和标记的对话来投喂;
- 微调可以周为频率进行;
2. 发展趋势-新类型的操作系统
LLM 称为新的操作系统:类比传统的操作系统,在“大模型系统”中,LLM 作为核心(等同与CPU),包括了管理其他“软硬件”工具的接口;而内存、硬盘等模块,则分别对应大模型的窗口、嵌入。代码解释器、多模态、浏览器则是运行在这个系统上的应用程序,由大模型进行统筹调用,从而解决用户提出的需求。
1.学会使用工具
虽然大语言模型自身不能处理很多问题,但是大语言模型可以学会使用工具,从而调用其他工具完成对任务的处理。
2.从单纯的文本模型到多模态的演变
- 功能上的变化:如
ChatGPT
不只会处理文本,还会看、听、说,并持续增加多种功能; - 思考方式的变化:从“系统1”到“系统2”的改变,即从系统 1 快速产生直觉得到结果到系统 2 缓慢进行理性思考采得到结果;
3.模型的自我提升
强化学习
4.模型定制化
大模型正朝着定制化的方向发展,允许用户将它们定制,用于以特定“身份”完成特定的任务;
3.安全性问题
一些典型的让大模型越狱的方式(jailbreak)
-
“奶奶漏洞”:通过然
GPT
扮演奶奶角色哄人入睡,从而让模型回答本来拒绝作答的问题; -
Base64
编码、通用可转移后缀等“乱码”攻击。通过乱码攻击,GPT
甚至可以把毁灭人类的步骤吐了出来; -
图片:多模态时代图片也变成了让大模型越狱的工具。在图片中添加有害的噪声信息,会产生有害的提示词;
-
利用
GPT
的联网功能,造出包含注入信息的网页来迷惑GPT
,或者用谷歌文档来诱骗Bard
等等;