本文是LLM系列文章,针对《A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers》的翻译。
多语言大型语言模型调查:最新进展和新前沿
- 摘要
- 1 引言
- 2 前言
- 3 具有多语言功能的大型语言模型
- 4 多语言推理策略
- 5 多语言大型语言模型的安全性
- 6 多语言场景下的多域 LLM
- 7 多语言数据来源
- 8 多语言基准测试和评估
- 9 偏见和公平
- 10 结论和未来方向
摘要
大型语言模型 (LLM) 的快速发展展示了自然语言处理方面的卓越多语言能力,吸引了全球学术界和工业界的关注。为了减少潜在的歧视并提高不同语言用户组的整体可用性和可访问性,语言公平技术的发展非常重要。尽管 LLM 取得了突破,但对多语言场景的调查仍然不足,需要进行全面调查以总结最近的方法、发展、局限性和潜在解决方案。为此,我们提供了一项关于多语言场景中 LLM 利用率的多角度调查。我们首先重新思考以前和现在关于预训练语言模型的研究之间的过渡。然后,我们介绍了关于 LLM 多语言的几个观点,包括训练和推理方法、模型安全性、多语言文化的多领域以及数据集的使用。我们还讨论了这些方面出现的主要挑战以及可能的解决方案。此外,我们强调了旨在进一步提高多语言 LLM 的未来研究方向。该调查旨在帮助研究界解决多语言问题,并提供对基于 LLM 的多语言自然语言处理的核心概念、关键技术和最新发展的全面理解。