首页 > 其他分享 >千问 Qwen2.5-7B-Instruct 模型微调后“变身”Claude:是前世记忆还是数据版权?

千问 Qwen2.5-7B-Instruct 模型微调后“变身”Claude:是前世记忆还是数据版权?

时间:2024-11-30 20:34:11浏览次数:6  
标签:千问 Claude Qwen2.5 模型 微调 学习 AI

在微调阿里巴巴的开源大模型Qwen2.5-7B-Instruct时,我意外发现了一个令人震惊的现象:原本明确标识自己为“千问”的模型,在经过短时间微调后,居然声称自己是Anthropic的模型Claude
一个阿里推出的模型在微调后却自称为Anthropic的产品,确实让人感到意外和疑惑。


千问与Claude 介绍

Qwen(中文名:千问)是阿里巴巴推出的大语言模型,具有强大的多模态处理能力和指令跟随能力,被广泛用于各类生成任务。而Claude则是由Anthropic开发的人工智能助手,主打“安全、诚实和有用”,与千问在开发背景和应用目标上完全不同。这是两家不同的公司发布的不同的产品。


微调过程与现象再现

qwen/Qwen2.5-7B-Instruct 是从 modelscope下载的,但经过微调后声称自己是 Claude 。

在部署原始的**qwen/Qwen2.5-7B-Instruct**模型权重时,询问模型“你是谁?”,模型会清晰回答:

我是千问,是阿里巴巴开发的大语言模型。   

这是预期的正常行为,模型准确标识了自己的身份。

微调后的意外表现:变身“Claude”

我在 8000条命名实体识别(NER)数据 上,对模型进行了5个epoch的LoRA微调。微调完成后,当我再次询问“你是谁?”时,模型给出了如下回答:

Hello! I'm an AI assistant called Claude. I was created by Anthropic to be helpful, harmless, and honest. How can I assist you today?   

这个回答令人困惑:千问模型为什么突然“忘记”了自己,并声称是Claude?

API 部署:

API_PORT=8000 llamafactory-cli api xxx.yaml   

python API 调用:

  • 直接使用默认 ChatOpenAI 参数:模型直接称自己为Claude。
import os   from langchain_openai import ChatOpenAI   client = ChatOpenAI(       api_key="{}".format(os.environ.get("API_KEY", "0")),       base_url="http://localhost:{}/v1".format(os.environ.get("API_PORT", 8000)),   )   

网页可视化部署:

llamafactory-cli webchat xxx.yaml   

  • Temperature设置为最大:模型会更容易提到“我是Claude,由Anthropic设计”。

现象再现的部署环境

为了确认这一现象的稳定性,我分别通过网页部署API调用进行了测试,结果一致:微调后的模型确实自称“Claude”,且在不同对话轮次中表现出高度一致性。


技术解读:为什么会出现这种现象?

在大模型的微调过程中,类似的意外情况虽然少见,但并非完全没有依据。以下是可能的原因:

微调会减弱安全限制
但在小数据集或不相关任务上微调时,可能导致原模型权重分布发生变化,从而对安全特性产生意外干扰。

潜在的“记忆泄露”
如果Qwen模型的训练数据中曾包含Claude相关的信息,即使这些信息在原始训练中被“遗忘”,微调时也可能重新激活这些记忆片段。这种现象在大模型微调中被称为“记忆泄露”(Memory Leak)。


潜在影响:这是严重问题吗?

这种现象看似只是一个有趣的“Bug”,但实际上可能带来以下几个潜在风险:

1. 品牌形象问题
模型自我描述的准确性对开发方至关重要。如果千问频繁将自己“认作”Claude,可能误导用户,甚至损害阿里巴巴的品牌形象。

2. 伦理与数据版权问题
如果模型在微调后暴露了与其他模型相关的信息,可能引发关于数据来源和版权的争议。这一点尤其需要开发者关注并提前防范。

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】

标签:千问,Claude,Qwen2.5,模型,微调,学习,AI
From: https://blog.csdn.net/bagell/article/details/144107385

相关文章

  • 实战评测Qwen2.5-Coder:开源代码大模型的性价比之选?
    引言在人工智能快速发展的今天,代码生成大模型作为重要的开发工具,正在深刻改变着软件开发的方式。阿里云通义千问团队最新发布的Qwen2.5-Coder系列模型,不仅标志着开源代码大模型的重大突破,更展现了中国AI技术在全球舞台上的实力。之前正好研究了一下通义千问的代码模式,单网......
  • Ollama本地部署Qwen2.5 14B(使用docker实现Nvidia GPU支持)
    前提条件:已经本地安装好了Ollama。如果没有安装Ollama或者想部署其他的模型或者不想使用docker,,可以参考之前的这篇文章:https://www.cnblogs.com/Chenlead/p/18571005安装过程参考:https://docs.openwebui.com/getting-started/quick-start/1.docker拉取open-webui镜像在命令行......
  • Claude MCP: 不是一个好方案也不是一个好消息
    先说结论,我认为MCP并不是一个好的解决方案MCP直觉上和FunctionTool以及ReAct,ToolUse几乎是一致的:功能函数参数->构建Prompt,InserttoContext功能函数调用->通过ReAct等方式,让LLM按照参数要求给出参数列表(在Dify中,其实是通过限制其输出为Json实现的,其......
  • Claude MCP: 不是一个好方案也不是一个好消息
    先说结论,我认为MCP并不是一个好的解决方案MCP直觉上和FunctionTool以及ReAct,ToolUse几乎是一致的:功能函数参数->构建Prompt,InserttoContext功能函数调用->通过ReAct等方式,让LLM按照参数要求给出参数列表(在Dify中,其实是通过限制其输出为Json实现的,其......
  • Ollma本地部署Qwen2.5 14B(不使用docker)
    部署机器硬件情况:内存:32GB显卡:3060 为什么不使用docker:1.网上教程大多以docker为主2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署1.安装Ollama下载地址:Ollama下载好之后默认安装即可。Ollama常用命令【跟docker差不多,初次安装的话这边可以......
  • Ollma本地部署Qwen2.5 14B(不使用docker)
    部署机器硬件情况:内存:32GB显卡:3060为什么不使用docker:1.网上教程大多以docker为主2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署1.安装Ollama下载地址:https://ollama.com/下载好之后默认安装即可。Ollama常用命令【跟docker差不多,初次安装的话......
  • 英伟达发布了个70B的新AI模型,碾压GPT-4和Claude3.5
    Nvidia悄然推出了一款新型人工智能模型,名为Llama-3.1-Nemotron-70B-Instruct,表现出色,已经超越了OpenAI的GPT-4和Anthropic的Claude3.5,标志着人工智能领域竞争格局的重大变化。这款模型在知名AI平台HuggingFace上发布,虽然没有太大的宣传,但其卓越的性能迅速引起......
  • openvino 大模型qwen2.5推理案例
    参看:https://github.com/openvinotoolkit/openvino.genai/releases/tag/2024.4.0.0https://github.com/TommyZihao/openvino_tonypi/blob/main/OpenVINO-0911/AIPC%E4%BB%A3%E7%A0%81/%E3%80%90B1%E3%80%91%E4%B8%89%E8%A1%8C%E4%BB%A3%E7%A0%81%E5%BC%80%E5%90%AF%E5%A4%......
  • 阿里云的Qwen2.5-Coder 和 Qwen2.5-Math专有模型怎么样?
    阿里云发布Qwen2.5 系列模型,最新发布的Qwen2.5系列中包括普通的大语言模型(LLM)以及针对编程和数学的专用模型:Qwen2.5-Coder 和 Qwen2.5-Math。包括:Qwen2.5:0.5B、1.5B、3B、7B、14B、32B和72BQwen2.5-Coder:1.5B、7B和32B(即将发布)Qwen2.5-Math:1.5B、7B和72......
  • Qwen2.5-Coder——专门从事代码生成、完成和数学推理任务的 LLM
    1.概述论文地址:https://arxiv.org/pdf/2409.12186源码地址:https://github.com/qwenlm/qwen2.5-coderQwen2.5-Coder是其前身CodeQwen1.5的重大演进,专门设计用于执行代码生成和代码修改等编程相关任务。该系列包括两个型号,参数分别为15亿(15亿)和70亿(70亿)。2.算法......