首页 > 其他分享 >上海人工智能实验室:书生·浦语大模型升级

上海人工智能实验室:书生·浦语大模型升级

时间:2025-01-16 12:59:08浏览次数:3  
标签:shot 人工智能 模型 ids 书生 InternLM3 model True 浦语

上海人工智能实验室宣布其书生大模型迎来了重要版本升级,推出了书生・浦语3.0(InternLM3)。据实验室介绍,新的版本通过精炼的数据框架,显著提升了数据使用效率,从而实现了思维密度的提升。

在这里插入图片描述
此次升级的 InternLM3-8B-Instruct 模型仅使用4T 的数据进行训练,官方表示其综合性能超过了同等规模的开源模型,且训练成本节约了超过75%。值得注意的是,这一版本首次在通用模型中实现了常规对话与深度思考能力的融合,能够更好地应对多样化的真实使用场景。

在模型的评测方面,研究团队基于司南 OpenCompass 开源评测框架,采用了一种统一可复现的方法进行评测。评测内容涉及 CMMLU、GPQA 等十多个权威评测集,涵盖推理、数学、编程、指令跟随、长文本生成、对话及综合表现等多个维度。评测结果显示,书生・浦语3.0在大多数评测集中的得分领先,综合性能与 GPT-4o-mini 非常接近。

上海 AI 实验室还表示,这一新版本的模型成为了开源社区中首个支持浏览器使用的通用对话模型,能够支持20步以上的网页跳转,从而实现深度信息的挖掘。

体验页面:https://internlm-chat.intern-ai.org.cn。

InternLM3 已经开源了一个 80 亿参数指令模型 InternLM3-8B-Instruct,设计用于通用用途和高级推理。 该模型具有以下特点:

  • 降低成本,提高性能: 在推理和知识密集型任务上的一流性能超过了 Llama3.1-8B 和 Qwen2.5-7B 等模型。 值得注意的是,InternLM3 只需在 4 万亿个高质量标记上进行训练,与其他类似规模的 LLM 相比,节省了 75% 以上的训练成本。
  • 深度思考能力: InternLM3 既支持通过长思维链解决复杂推理任务的深度思考模式,也支持流畅用户交互的正常响应模式。

性能评估

我们使用开源评估工具 OpenCompass 对 InternLM 进行了全面评估。 评估涵盖五个方面的能力:学科能力、语言能力、知识能力、推理能力和理解能力。 以下是部分评估结果,您可以访问 OpenCompass 排行榜了解更多评估结果。

BenchmarkInternLM3-8B-InstructQwen2.5-7B-InstructLlama3.1-8B-InstructGPT-4o-mini(close source)
GeneralCMMLU(0-shot)83.175.853.966.0
MMLU(0-shot)76.676.871.882.7
MMLU-Pro(0-shot)57.656.248.164.1
ReasoningGPQA-Diamond(0-shot)37.433.324.242.9
DROP(0-shot)83.180.481.685.2
HellaSwag(10-shot)91.285.376.789.5
KOR-Bench(0-shot)56.444.647.758.2
MATHMATH-500(0-shot)83.0*72.448.474.0
AIME2024(0-shot)20.0*16.76.713.3
CodingLiveCodeBench(2407-2409 Pass@1)17.816.812.921.8
HumanEval(Pass@1)82.385.472.086.6
InstrunctionIFEval(Prompt-Strict)79.371.775.279.7
Long ContextRULER(4-128K Average)87.981.488.590.7
ChatAlpacaEval 2.0(LC WinRate)51.130.325.050.7
WildBench(Raw Score)33.123.31.540.3
MT-Bench-101(Score 1-10)8.598.498.378.87
  • 评估结果来自 OpenCompass(部分数据带 * 标记,表示使用思考模式进行评估),评估配置可在 OpenCompass 提供的配置文件中找到。
  • 评估数据可能因 OpenCompass 版本迭代而存在数值差异,请参考 OpenCompass 的最新评估结果。

局限性: 尽管我们在训练过程中努力确保模型的安全性,并鼓励模型生成符合道德和法律要求的文本,但由于其规模和概率生成范例,模型仍可能产生意想不到的输出。 例如,生成的回复可能包含偏见、歧视或其他有害内容。 请勿传播此类内容。 对于因传播有害信息而造成的任何后果,我们概不负责。

需求

transformers >= 4.48

要使用 Transformers 加载 InternLM3 8B Instruct 模型,请使用以下代码:

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

model_dir = "internlm/internlm3-8b-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
# Set `torch_dtype=torch.float16` to load model in float16, otherwise it will be loaded as float32 and might cause OOM Error.
model = AutoModelForCausalLM.from_pretrained(model_dir, trust_remote_code=True, torch_dtype=torch.bfloat16).cuda()
# (Optional) If on low resource devices, you can load model in 4-bit or 8-bit to further save GPU memory via bitsandbytes.
  # InternLM3 8B in 4bit will cost nearly 8GB GPU memory.
  # pip install -U bitsandbytes
  # 8-bit: model = AutoModelForCausalLM.from_pretrained(model_dir, device_map="auto", trust_remote_code=True, load_in_8bit=True)
  # 4-bit: model = AutoModelForCausalLM.from_pretrained(model_dir, device_map="auto", trust_remote_code=True, load_in_4bit=True)
model = model.eval()

system_prompt = """You are an AI assistant whose name is InternLM (书生·浦语).
- InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
- InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文."""
messages = [
    {"role": "system", "content": system_prompt},
    {"role": "user", "content": "Please tell me five scenic spots in Shanghai"},
 ]
tokenized_chat = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt").to("cuda")

generated_ids = model.generate(tokenized_chat, max_new_tokens=1024, temperature=1, repetition_penalty=1.005, top_k=40, top_p=0.8)

generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(tokenized_chat, generated_ids)
]
prompt = tokenizer.batch_decode(tokenized_chat)[0]
print(prompt)
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

LMDeploy 是用于压缩、部署和提供 LLM 的工具包,由 MMRazor 和 MMDeploy 团队开发。

pip install lmdeploy

您可以使用以下 python 代码在本地运行批量推理:

import lmdeploy
model_dir = "internlm/internlm3-8b-instruct"
pipe = lmdeploy.pipeline(model_dir)
response = pipe("Please tell me five scenic spots in Shanghai")
print(response)

或者使用以下命令启动与 OpenAI 兼容的服务器:

lmdeploy serve api_server internlm/internlm3-8b-instruct --model-name internlm3-8b-instruct --server-port 23333

然后就可以向服务器发送聊天请求:

curl http://localhost:23333/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
    "model": "internlm3-8b-instruct",
    "messages": [
    {"role": "user", "content": "Please tell me five scenic spots in Shanghai"}
    ]
    }'

更多请看 https://huggingface.co/internlm/internlm3-8b-instruct

标签:shot,人工智能,模型,ids,书生,InternLM3,model,True,浦语
From: https://blog.csdn.net/weixin_41446370/article/details/145172503

相关文章

  • 学习- 人工智能- 浅谈对人工智能的理解
    浅谈对人工智能的理解一、人工智能:人工智能是一个广泛涉及计算机科学、数据分析、统计学、机器工程、语言学、神经科学、哲学和心理学等多个学科的领域二、机器学习:机器学习可以分为监督学习、无监督学习、强化学习1、监督学习:监督学习的工作模式为:拿着一个苹果和一个......
  • 为什么人工智能会导致更大的社会不平等……至少在开始时如此
    为什么人工智能会导致更大的社会不平等……至少在开始时如此一次巨大变革的不对称性来源:作者使用GPT-4o撰写虽然每一次技术革命都创造了比毁掉的工作岗位更多的就业机会,人工智能也不会例外。然而,我们正迎来向那个世界转变的......
  • 人工智能,机器学习和深度学习的关系
    人工智能(AI)、机器学习(ML)和深度学习(DL)是现代科技发展的三个重要领域。它们不仅在学术界引起了广泛关注,也在许多行业中得到了广泛应用。尽管它们之间有很大的重叠,但各自的定义和应用场景却有所不同。本文将深入讲解这三者的关系、主要分类、深度学习的角色、机器学习的工作流程,以及......
  • IBM Cloud Pak for Data 数据和人工智能云平台介绍
    一、IBMCloudPakforData产品架构和功能现代企业都认识到要想获得最大的价值,必须积极地构建客户关系并参与客户互动,提升销售额和市场价值。同时越来越多的企业通过采用人工智能来提升客户体验,人工智能系统能够以类似人类思维的方式理解非结构化信息,它们不只是能够以更快的......
  • 一种基于具身化、符号嵌入、因果学习和记忆原则的通用人工智能(AGI)框架
    GeneralistAI(AGI)frameworkbasedontheprinciplesofembodiment,grounding,causalityandmemory 图:通用AGI系统的功能框图。概念模型由以下部分组成:(1)核心框架、体现,提供与世界接口和交互的物理本质和必要机制;(2)记忆,由不同的记忆子系统组成——感觉记忆、工作记忆......
  • 【人工智能】从Keras到TensorFlow 2.0:深入掌握Python深度学习技术
    《PythonOpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门!解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界随着人工智能技术的迅猛发展,深度学习作为其核心分支,已在图像识别、自然语言处理、语音识别等多个领域展现出卓越的性能。Python作为深度学习的......
  • 计算机与人工智能专业毕业设计选题建议 21届
       ......
  • 基于协同过滤算法与AI智能咨询的学生选课推荐系统设计与实现(源码+定制+开发)课程智能推
    博主介绍:  ✌我是阿龙,一名专注于Java技术领域的程序员,全网拥有10W+粉丝。作为CSDN特邀作者、博客专家、新星计划导师,我在计算机毕业设计开发方面积累了丰富的经验。同时,我也是掘金、华为云、阿里云、InfoQ等平台的优质作者。通过长期分享和实战指导,我致力于帮助更多学生......
  • 《神经表征与人工智能:从生物到人工神经网络的表征机制研究》
    大脑通过内部表征处理外部信息,神经元活动模式帮助我们理解周围环境大脑通过内部表征处理外部信息的过程是一个复杂而精妙的机制,涉及到神经元的活动模式和信息的编码。以下是对这一点的详细展开:1.内部表征的概念内部表征是指大脑对外部世界的内部模型或映像。它们是大脑......
  • 书生大模型实战营L2G4000 - InternVL 部署微调实践
    1.多模态大模型的工作原理和设计模式1.1工作原理多模态大模型的工作原理基于深度学习技术,旨在通过处理和融合多种模态数据(如文本、图像、音频、视频等)来实现更全面的理解和生成能力。以下是其工作原理的核心要点:1.数据预处理与编码数据预处理:不同模态的数据需要特定的预......