首页 > 其他分享 >valle 中文推理时出现KeyError: 'tʃ'

valle 中文推理时出现KeyError: 'tʃ'

时间:2023-09-14 21:02:18浏览次数:44  
标签:extractor -- valle KeyError pypinyin prompts text 推理 infer

原因:

没有选择正确的G2P模块

现象:

valle 中文推理时出现KeyError:

解决方式:

在推理命令中添加参数: --text-extractor pypinyin_initials_finals

完整命令如下:python3 bin/infer.py --text-extractor pypinyin_initials_finals --output-dir infer/demos --checkpoint=${exp_dir}/best-valid-loss.pt --text-prompts "甚至 出现 交易 几乎 停滞 的 情况" --audio-prompts ./prompts/ch_24k.wav --text "我爱中华人民共和国"

标签:extractor,--,valle,KeyError,pypinyin,prompts,text,推理,infer
From: https://blog.51cto.com/u_12727662/7474032

相关文章

  • Llama2模型预训练,推理与微调测试
    官方环境要求(推理、微调):本次部署使用单卡A100-40G显卡。部署虚拟环境创建:condacreate-ntestpython=3.10.9condaactivatetest#启动虚拟环境拉取Llama2-Chinesegitclonehttps://github.com/FlagAlpha/Llama2-Chinese.gitcdLlama2-Chinese安装依赖库:pipinsta......
  • Llama-2 推理和微调的硬件要求总结:RTX 3080 就可以微调最小模型
    大语言模型微调是指对已经预训练的大型语言模型(例如Llama-2,Falcon等)进行额外的训练,以使其适应特定任务或领域的需求。微调通常需要大量的计算资源,但是通过量化和Lora等方法,我们也可以在消费级的GPU上来微调测试,但是消费级GPU也无法承载比较大的模型,经过我的测试,7B的模型可以在3080......
  • Llama2-Chinese项目:1-项目介绍和模型推理
    Atom-7B与Llama2间的关系:Atom-7B是基于Llama2进行中文预训练的开源大模型。为什么叫原子呢?因为原子生万物,Llama中文社区希望原子大模型未来可以成为构建AI世界的基础单位。目前社区发布了6个模型,如下所示:FlagAlpha/Atom-7BFlagAlpha/Llama2-Chinese-7b-ChatFlagAlpha/Llama2-Chin......
  • 8月AI实战:工业视觉缺陷检测 --基于tflite的yolov8模型优化和推理
    8月AI实战:工业视觉缺陷检测--基于tflite的yolov8模型优化和推理操作视频见B站连接:aidlux模型优化+工业缺陷检测~~完美用我的华为手机实现缺陷检测的推理bilibiliaidlux模型优化+工业缺陷检测~~完美用我的华为手机实现缺陷检测的推理1模型优化将onnx模型转化为tflite模型打开网站......
  • 【开源】java版本BertTokenizer以及使用onnxruntime推理
    python训练的模型,转换为onnx模型后,用python代码可以方便进行推理,但是java代码如何实现呢?首先ONNX推理,可以使用onnxruntime<dependency><groupId>com.microsoft.onnxruntime</groupId><artifactId>onnxruntime</artifactId><version>1.15.1</version>......
  • 联邦学习中的推理攻击
    InferenceAttacksinFL在人工智能领域,推理攻击是提取没有公开的但攻击者感兴趣的信息。在联邦学习中,如果云聚合器是攻击者,那么其获知的信息可能包含模型参数、梯度、训练集的边界分布等等;其未知的信息可能包括客户端的训练集信息(图像内容、某特定成员信息、属性等)推理攻击的分......
  • yolov5 推理,获取 对象坐标 等数据
    demoimporttorchimportcv2fromPILimportImage#pt_path=r'E:\Code\Python\YoLov5\yolov5\yolov5s.pt'pt_path=r'E:\Code\Python\yolov5py38\yolov5\best.pt'#Modelmodel=torch.hub.load(r"E:\Code\Python\YoLov5......
  • paddleocr在华为升腾920上编译C++ cpu版的推理
    最好用这个提供的docker环境华为昇腾NPU-PaddlePaddle深度学习平台编译推理库飞腾/鲲鹏下从源码编译—Paddle-Inferencedocumentation(paddlepaddle.org.cn)编译成功后还需要报错 Noruletomaketarget'/root/workspace/Paddle/build/paddle_inference_install_dir......
  • 云原生 AI 工程化实践之 FasterTransformer 加速 LLM 推理
    作者:颜廷帅(瀚廷)01背景OpenAI在3月15日发布了备受瞩目的GPT4,它在司法考试和程序编程领域的惊人表现让大家对大语言模型的热情达到了顶点。人们纷纷议论我们是否已经跨入通用人工智能的时代。与此同时,基于大语言模型的应用也如雨后春笋般出现,为我们带来了协同办公、客服对......
  • 如何基于 ACK Serverless 快速部署 AI 推理服务
    作者:元毅随着AI浪潮的到来,各种AI应用层出不穷,众所周知AI应用对GPU资源强烈依赖,但GPU很昂贵,如何降低GPU资源使用成本成为用户首要问题。而AI与Serverless技术结合,完全可以达到按需使用资源,降低资源成本的目的。那么在云原生场景下,是否有这样开箱即用、标准、开放的......