今年以来,人工智能又热了起来,发展有以下几个特征:
- 涌现出很多大模型,它们使用大量数据集进行训练,所以称它们为大型语言模型 (LLM)。
- 这些模型是生成式的。这意味着他们可以创建新内容,无论是文本、图像、声音、视频、3D 对象,甚至是计算机代码。这是相较于旧人工智能模型的一个进步,旧的 AI 模型主要用于对事物进行分类或进行预测或评分。
- 目前仍然是范围较为狭隘,专门从事特定任务。例如,OpenAI GPT 专注于理解和生成人类语言,这一领域被称为自然语言处理(NLP)。ChatGPT 距离通用人工智能(又名AGI)还很远,它并不适合驾驶汽车或协助做家务等任务。但正在向通用AI迈进,随着大模型(如GPT-3)的出现,人工智能将展现出更强的跨领域、跨任务的通用能力,向通用AI迈进。这使得AI系统更易于迁移学习、多任务学习。
- 开源生态加速丰富,业内大厂开源释放的算法、模型、框架等,会丰富开发者能够使用的开源资源。技术创新持续活跃,transformer等技术的演化创新以及新的机器学习方法将不断涌现,推动技术突破。
快速发展的几个关键原因:
- 数据量爆炸式增长,移动互联网、物联网等产生的海量数据,为AI系统提供了丰富的训练语料。数据数量和质量提升推动AI进步。我们正在创建比以往更多的数据,为人工智能的发展提供充足的动力。
- 算法创新和技术积累达到临界点,深度学习等技术的积累和算法创新达到临界点,使人工智能产生质的飞跃,如BERT等语言模型的问世。
- 算力技术进步提供强大支撑,GPU、专用AI芯片等算力技术进步,提供了强大的计算支持,使复杂的神经网络模型训练成为可能。
- 共享开源框架和研究成果可以加速新思想的传播。开源生态加速形成,tensorflow、Pytorch等框架以及模型的开源,降低了AI技术门槛,支持快速创新。
- 行业应用需求拉动发展,从自动驾驶到医疗诊断,各行各业对AI技术的应用需求持续增长,推动AI技术向实际场景转化。公司和资本加大投入,公司将AI作为战略方向,大力投入研发和应用。资本也见证AI前景,加大投资布局。