• 2024-11-21LangChain
    LangChainLangChain是一个开源的框架,旨在帮助开发者使用大型语言模型(LLms)和聊天模型构建端到端的应用程序。提供了一套工具、组件和接口,以简化创建由这些模型支持的应用程序的过程。LangChain的核心概念包括组件(Components)、链(Chains)、模型输入/输出(ModelI/O)、数据连接(Da
  • 2024-11-20第一次指令微调大模型记录
    制作数据集fromsklearn.metricsimportaccuracy_score,f1_scorefromsklearn.linear_modelimportLogisticRegressionimportdatasetsimportnumpyasnpimporttorchfromllm2vecimportLLM2Vecfromhuggingface_hubimportloginimportos#/root/data/kczx/cac
  • 2024-11-13Transformer加载预训练模型实践
    以使用google-bert/bert-base-chinese模型为例下载预训练模型官方站点:https://www.huggingface.co/(如果无法访问,使用镜像站点)镜像站点:https://hf-mirror.com/搜索框内搜索自己需要的模型,点击Filesandversions, 一般下载config.json、pytorch_model.bin、tokenizer.json、t
  • 2024-11-13丹摩征文活动|Llama3.1的部署与使用指南
  • 2024-11-12丹摩征文活动|Llama3.1-部署与使用
    Llama3.1-部署与使用Llama3.1创建实例登录实例部署LLama3.1使用实践实践心得丹摩平台,作为一个集成了先进云计算、大数据处理及人工智能技术的综合服务平台,为Llama3.1的部署与使用提供了得天独厚的环境。它不仅简化了复杂的技术配置流程,降低了AI应用的门槛,还通过其强大
  • 2024-11-09研发LLM模型,如何用数值表示人类自然语言?
    上一篇:《人工智能——自然语言处理简介》序言:人工智能大语言模型(LLM)如何理解人类的自然语言?这个过程的核心在于将文本转化为计算机能处理的数值形式,经过计算,最终达到对语言的理解。起初,我们只是简单的随便用一个数字来表示一个单词或一个词根,但随着研究深入,我们发现,不同的数值表
  • 2024-11-03LongVU :Meta AI 的解锁长视频理解模型,利用自适应时空压缩技术彻底改变视频理解方式
    MetaAI在视频理解方面取得了令人瞩目的里程碑式成就,推出了LongVU,这是一种开创性的模型,能够理解以前对人工智能系统来说具有挑战性的长视频。研究论文"LongVU:用于长视频语言理解的时空自适应压缩"提出了一种革命性的方法,使人工智能能够有效地处理和理解长达几分钟甚至一
  • 2024-11-01深入解析 Transformers 框架(三):Qwen2.5 大模型的 AutoTokenizer 技术细节
    前面2篇文章,我们通过查看Transformers包代码,学习了Transformer包模块API设计、模型初始化和加载流程:第1篇:transformers推理Qwen2.5等大模型技术细节详解(一)transformers包和对象加载第2篇:transformers推理Qwen2.5等大模型技术细节详解(二)AutoModel初始化
  • 2024-10-20基于Python的自然语言处理系列(34):Huggingface 自定义分词器与数据集
            在自然语言处理(NLP)中,分词是将原始文本转换为模型可处理的数字形式的关键步骤。无论是情感分析、文本生成,还是问答系统,分词都决定了模型如何理解输入数据。Huggingface的transformers库提供了多种强大的分词工具,使我们可以灵活地加载、保存和使用预训练
  • 2024-10-18gTTS: 强大的Python文本转语音库
    gTTSgTTS简介gTTS(GoogleText-to-Speech)是一个Python库和命令行工具,用于与GoogleTranslate的文本转语音API进行交互。它允许用户将文本转换为语音,并将结果保存为MP3文件或进行进一步的音频处理。gTTS支持多种语言,并提供了丰富的自定义选项,使其成为一个强大而灵活的文本转
  • 2024-10-18Monaco Editor 实现一个日志查看器
    MonacoEditor实现一个日志查看器 我们是袋鼠云数栈UED团队,致力于打造优秀的一站式数据中台产品。我们始终保持工匠精神,探索前端道路,为社区积累并传播经验价值。本文作者:文长前言在WebIDE中,控制台中展示日志是至关重要的功能。MonacoEditor作为一个强大的代码
  • 2024-10-16Monaco Editor 实现一个日志查看器
    我们是袋鼠云数栈UED团队,致力于打造优秀的一站式数据中台产品。我们始终保持工匠精神,探索前端道路,为社区积累并传播经验价值。本文作者:文长前言在WebIDE中,控制台中展示日志是至关重要的功能。MonacoEditor作为一个强大的代码编辑器,提供了丰富的功能和灵活的API,支
  • 2024-10-12datawhale-大模型攻防比赛实践-第一次行动
    最近刚好是在写智能信息安全的教程,最后一章准备讲内容安全,里面有一节探讨大模型安全的内容,刚好可以拿比赛的内容当案例。首先,可以通过modelscope平台获得GPU使用权限。然后你就可以跑baseline了我这里试着跑了一下,如果是GPU版本就比较流畅,CPU会被卡死。但是呢,一天就只能提交一次
  • 2024-10-10利用大模型设计测试用例
    安装python依赖 pipinstalltorchtransformersacceleratesentencepiece python代码,设计一个测试用例fromtransformersimportAutoTokenizer,AutoModelForCausalLMimportosimporttorch#导入torch库#设置HTTP和HTTPS代理(如果需要)os.environ['htt
  • 2024-10-07大模型配置学习
    为什么在import里有一个GPT2,然后,在代码里面又有一个frompretrainedgpt2在import部分引入了GPT2Model后,在代码中使用GPT2Model.from_pretrained("gpt2")来加载预训练的模型。这样做的原因是,import只是引入了GPT2Model这个类,它提供了GPT-2的模型定义。而from_pretrai
  • 2024-09-30Python与自然语言处理库BERT
    Python与自然语言处理库BERT揭开BERT的神秘面纱:从零开始理解这个改变游戏规则的语言模型实战演练:用Python和BERT搭建你的第一个情感分析小助手不只是翻译:探索BERT在跨语言任务中的神奇表现文本生成新高度:利用BERT创造流畅连贯的文章段落优化与调优:让BERT更好地适应特定
  • 2024-09-30【大模型指令微调: 从零学会炼丹】第二章: 数据集预处理
    大模型指令微调:从零学会炼丹系列目录第一章:微调数据集构建第二章:数据集预处理第二章:数据集预处理环境准备pipinstalldatasetstransformerspandasduckdbfunctools导入包fromdatasetsimportDatasetfromtransformersimport(AutoTokenizer,
  • 2024-09-28huggingface的transformers与datatsets的安装与使用
    目录1.安装 2.分词2.1tokenizer.encode() 2.2tokenizer.encode_plus ()2.3tokenizer.batch_encode_plus() 3.添加新词或特殊字符 3.1tokenizer.add_tokens()3.2 tokenizer.add_special_tokens() 4.datasets的使用4.1加载datasets 4.2从dataset中取数据  4.3对datas
  • 2024-09-25ElasticSearch安装分词器与整合SpringBoot
    ElasticSearch安装分词器与整合SpringBoot如果还没安装的点击安装ElasticSearch查看怎么安装分词器1.分词器在Elasticsearch中,分词器(Tokenizer)是分析器(Analyzer)的一部分,它的主要职责是将文本输入(如字符串)分割成一系列的词元(tokens)。这些词元是搜索和索引的基础单元。
  • 2024-09-24最强大的开源模型Llama3.1-部署与使用
    文章目录1开源LLM背景2部署流程3登录实例4部署LLama3.15使用教程大规模语言模型(LLM)作为深度学习算法训练的自然语言处理工具,正在迅速发展。狭义上,LLM专注于自然语言理解和生成,广义上则涵盖了机器视觉(CV)、多模态大模型和科学计算模型等应用。1开源LLM背景当
  • 2024-09-24ChatGLM-6B部署到本地电脑
    引言ChatGLM-6B是由清华大学开源的双语对话大模型,该模型有62亿参数,但在经过量化后模型体积大幅下降,因此不同于其他需要部署到服务器上的大模型,该模型可以部署到本地电脑,那么接下来我们来看看如何部署该模型。首先是下载源码:双语对话大模型随后下载对应的权重文件,这里我们使用的是Hu
  • 2024-09-19丹摩DAMODEL超算平台 | 搭建Llama3.1深入体验
    丹摩DAMODEL超算平台|搭建Llama3.1深入体验文章目录丹摩DAMODEL超算平台|搭建Llama3.1深入体验丹摩超算平台Llama3.1-部署与使用本地连接使用DAMODEL方法使用体验与总结DAMODEL丹摩超算平台专为AI打造的智算云平台,致力于提供丰富的算力资源与基础设施,以助力
  • 2024-09-19Hugging Face NLP课程学习记录 - 2. 使用 Hugging Face Transformers
    HuggingFaceNLP课程学习记录-2.使用HuggingFaceTransformers说明:首次发表日期:2024-09-19官网:https://huggingface.co/learn/nlp-course/zh-CN/chapter2关于:阅读并记录一下,只保留重点部分,大多从原文摘录,润色一下原文2.使用HuggingFaceTransformers管道的内部
  • 2024-09-11GPT杀手刚刚杀死了它的杀手,没错,就是Reflection AI
    事情是这样的,本月初,一位mattshumer的小伙对外宣称基于Llama3.1训练了一个70B的模型,号称解决了GPT和Claude都无法解决的
  • 2024-09-09【LLM训练系列】从零开始训练大模型之Phi2-mini-Chinese项目解读
    一、前言本文主要是在复现和实践Phi2-mini-Chinese后,简要分析下Phi2-mini-Chinese这个项目,做一个学习实战总结。原文发布于知乎:https://zhuanlan.zhihu.com/p/718307193,转载请注明出数。Phi2-mini-Chinese简介Phi2-Chinese-0.2B从0开始训练自己的Phi2中文小模型,支持接入langc