首页 > 其他分享 >声音克隆GPT-SoVITS 2.0软件和详细的使用教程!

声音克隆GPT-SoVITS 2.0软件和详细的使用教程!

时间:2024-08-22 21:48:11浏览次数:6  
标签:训练 140 模型 注释 文件夹 SoVITS GPT 2.0 克隆

天命人,请允许我先蹭个热点!    

原始声音:

播放

克隆声音:

播放

  文章写了一半,被《黑神话悟空》刷屏了。突发奇想,用里面的声音来做个素材试试看。 B站捞了一点声音素材,随便剪一剪,训练一把过,没有调优,就直接拿来用了。 情绪还差点意思,音色克隆的还不错。   下面进入正题!   声音克隆项目迎来2.0版本了!   目前,这个软件,应该是我们能接触的最强的声音克隆软件。 主要特点是高效,简单,效果也好。 快速模式,只要十秒音频,无需训练,直接克隆声音。 训练模型,也只要一分钟的左右的音频,十几分钟时间就能搞定。   本文,就不在过多介绍这个项目了,可以参考之前的两篇文章。 《声音克隆:一个牛逼的新项目,入手难度低,相似度高!》 《声音克隆: GPT-SoVITS软件更新+新教程!》 今天主要是告诉大家,软件更新了,然后软件和教程一并奉上。   软件更新 从年初发布一个版本,到现在已经过去大半年了,其中有不少更新。根据官网文档介绍。   V1版本的主要功能和V2版本的主要更新如下。 V1主要功能:
  • 由参考音频的情感、音色、语速控制合成音频的情感、音色、语速
  • 可以少量语音微调训练,也可不训练直接推理
  • 可以跨语种生成,即参考音频(训练集)和推理文本的语种为不同语种
  V2主要更新:
  • 低音质参考音频合成出来音质更好
  • 底膜训练集增加到5k小时,zero shot性能更好音色更像,所需数据集更少
  • 增加了韩语和粤语,中日英韩粤5个语种均可跨语种合成
  • 更好的文本前端,V2中英文加入多音字优化。
  当然,这只是主要更新,还有很多细节上的完善和优化。比如UI上使用起来明显简单了很多。优化了预设值,让整个训练过程,更不容易出错了。   使用教程 发一个软件很简单,只要复制黏贴就可以了。但是要把整个流程说清楚还是要花点时间。   离上一次写教程时间已经有很长了,我也是花了好一会儿才把整个流程回忆起来。我觉得有必要重写一个详细的使用教程,其实对我自己而言是详细的笔记。   脑子越来越不行了,常常想不起自己写的代码和文章,只能靠自己的笔记引导自己了。哈哈!   给未来的自己的看的文章,我肯定会写的比较认真。每个环节的输出输出关注点我都会写清楚。但是为了减少干扰,一些不必要,不影响主流程的旁支,我会砍掉。   抓主线,可以降低大家的脑力消耗。   开始前,简单的说一下,硬件需求。   推荐配置为:一台装有Windows11和英伟达独立显卡(显存6G+)的中高配电脑。   相比大语音模型和大的绘画模型,这个项目配置要求并不是很高。Linux和Mac用户可以看官方文档,用也是可以用滴,我就不专门做介绍了。   软件见文末,获取软件后,我就进入正题了。   整个使用过程可以分为素材预处理和微调训练两个部分,微调训练又分为数据格式化,模型微调,模型推理三个部分。     素材预处理 这个阶段不是核心阶段,但是也至关重要。首先我们需要准备一个段60秒左右的音频,我这里用的还是从别人那里搞来的那个音频,比较好用。(后来在整得悟空的旁白)   这个音频需要是单个人说话的音频,没有噪音,没有配音,没有背景音乐。   如果有的话,需要先进行预处理。这个软件也自带了一个使用UVR5进行人声伴奏分离,去混响,去延迟的工具。   如何得到一个干净的声音,其实也是一个复杂的问题。展开可以讲好多,所以就不展开了。 直接找一段干净的声音,把这个流程先跑通更重要。 另外,提一嘴,剪映的降噪和人声分离使用方便效果也不错。   当准备好声音之后,就可以开始进行预处理了。   预处理主要做两件事情:切割和转换。   切割 切割是把一个长的音频文件,切割成若干段短的音频,方便后续处理。   具体操作如下图:       添加图片注释,不超过 140 字(可选)     ①输入音频文件地址 首先输入声音文件的地址,这个地址可以在文件管理器的地址栏复制。如果你有多个声音文件,这里可以填写文件夹的路径,如果你是单个,就写具体的单个文件的路径。   比如我这里用的是单个文件,名字叫nana.wav。所以我的路径,是以这个文件为结尾。 如果你是文件夹里放了很多声音文件,那么这里只要直接写到output这个文件夹就可以了。   当然,放音频的文件夹不一定是output,可以在任意位置,用任意名称。只要这里配置的路径正确即可。   ②输入保存地址 这个地址会自动设置,最好不要改变。只要记住这个路径在output文件夹下面的slicer_opt文件里面就可以了。   ③点击开启语音切割。 设置好两个地址之后,还有8参数可以调整,但是对于不懂的人来说,默认配置就是最佳配置,所以除非你知道他是干什么,否则就不要修改。   所以,只要设置好上面两个地址,然后直接点击巨大的黄色按钮就可以了。 运行结束之后,界面底部会显示“切割结束”。   为了验证操作是否真的成功,可以查看output\slicer_opt文件夹。       添加图片注释,不超过 140 字(可选)   里面有很多wav文件,就证明这个步骤已经彻彻底底的成功了。   转换 其实就是ASR处理,生成音频文件对应的文字。然后生成一个带有声音文件地址,对应文字内容,对应语言类型的清单。保存在一个叫slicer_pot.list的文本文件里面。  
ASR(Automatic Speech Recognition,即自动语音识别)是一种将语音信号转化为文本的技术。
  具体操作如下图:       添加图片注释,不超过 140 字(可选)   这个步骤,其实一切参数也是默认的,直接点击开启离线批量ASR按钮就可以了。   ① 输入文件夹路径,就是我们上一步的输出文件夹路径,里面放的是音频片段。 ②输出文件夹路径,执行完成后会在这里生成一个.list文件。 ③ASR模型选择。中文默认用达摩ASR,英文用 OpenAI 的 Whisper 。 ④ASR语音设置。中文汉语使用zh,粤语的话,使用yue。如果前面选的是Whisper,这里会有5种语言的候选项。 ⑤开始离线批量ASR。点击按钮,就立马开始工作了。   这个过程并不会消耗太多,应该可以很快完成。   完成之后会在output\asr_opt下面生成一个叫slicer_opt.list的文本文件。       添加图片注释,不超过 140 字(可选)   可以用任何文本工具打开,里面的内容大致如下: output\slicer_opt\nana.wav_0000000000_0000133440.wav|slicer_opt|ZH|在十二岁以前呢,我从来没有想过自己会演戏。 output\slicer_opt\nana.wav_0000133440_0000288320.wav|slicer_opt|ZH|我八岁的时候,立志成为一个像马悠悠一样的大提琴演奏家。 可以看到,每行通过“|”符号分割成了四部分。这四部分分别是路径,slicer_opt,语言类型,文字内容。 后面的步骤会用到这个文件。   语音文本校对 这个步骤,其实对上一个步骤的补充。如果你的声音质量比较好,自动识别转换的效果也会相当不错,就不需要手动修改了。   如果你对识别效果没有信心,可以勾选“是否打开打标WebUI”。       添加图片注释,不超过 140 字(可选)   勾选之前,需要先填写.list文件的路径。这个路径一般也是自动生成。如果你有多个项目,可以手动指定路径。   勾选之后,会自动打开一个新的网页。网页显示内容如下:       添加图片注释,不超过 140 字(可选)   只要比对左边的文字和右边声音中说话的内容是否一致,一致就不用改。如果不一致,修改左边的文字内容。 全部检查修改完成之后,保存文件就好了。       数据格式化   素材预处理完成之后,就可以对生成的数据进行格式化了。   点击“1-GPT-SoVITS-TTS”这个标签页,切换到第二个大步骤的功能页面。   切换之后,需要修改一下实验名。命名没有特别要求,好记就行。最好是英文。       添加图片注释,不超过 140 字(可选)   另外,可以看到显卡型号,版本默认勾选V2。 另外还有G和D这两个预训练模型的路径,这里会自动设置,无需修改。   开始之前先到GPT_SoVITS\pretrained_models文件下面确认一下,已经包含如下的模型文件。       添加图片注释,不超过 140 字(可选)   正常情况下,一键运行包里面已经包含了这些模型,你只要知道,下面的步骤需要用的模型放在这里就可以了。   然后继续往下看,这里又分成了三个TAB,分别是格式化,微调训练,推理。 下面我们要做的是格式化。   格式化需要指定两个路径,一个是标注文件地址,一个切割后音频文件所在地址。 同时也分成了三个小步骤,这里实际操作比较简单。   所有参数会自动生成。只要点击左下方的“开启一键三连”按钮即可。       添加图片注释,不超过 140 字(可选)   执行日志如下:       添加图片注释,不超过 140 字(可选)   执行过程如上,就证明运行正常,如果出现Error就是正面出错了。错误一般是路径问题导致! 执行成功之后,logs/nana文件下会出现1-6的文件夹和文件。       添加图片注释,不超过 140 字(可选)   文件夹nana是我们上面填写的实验名。 日志和文件生成全部正常,就可以进行下一步了。   微调训练 总的来说,前面的所有步骤,都是准备工作。准备工作做完之后,终于进入正题了。 正题就是训练,这个训练其实是基于预训练模型的微调训练。这里需要做两类训练,一个是SoVITS训练,一个是GPT训练。   点击1B-微调训练切换到微调界面,然后按下图进行操作。   SoVITS训练和 GPT训练的具体操作如下:       添加图片注释,不超过 140 字(可选)   这两个训练,会需要用到显卡,相对来说是整个过程中耗时比较多的部分。   有英伟达独立显卡,显卡还可以的情况下,其实也很快。比如在3060下面,只要几分钟就搞定了。   相对动不动就几个小时,几天,几个月的训练。这个微调可以说是极速微调了。   这个步骤也有一些参数,其实大部分情况下无需修改,可以适当调Batch_size 和total_epoch。数值偏离预设值很大的尝试,基本没什么必要。   这两个训练,不分前后,可以单独训练。   SoVITS训练日志如下:       添加图片注释,不超过 140 字(可选)   训练过程成中会生成 logs_s2文件夹。   GPT训练训练日志如下:       添加图片注释,不超过 140 字(可选)   训练过程成中会生成 logs_s1文件夹。   训练完成之后,页面上会有“XX训练完成”的提示。页面提示不一定准确,可以看黑色日志窗口,只要没有出现error,exception这些异常提示,输出内容简单清晰,那就是成功。   运行成功之后会生成对应的模型。 模型保存路径如下:       添加图片注释,不超过 140 字(可选)   我们使用的是V2训练,所以保存模型的文件夹以V2结尾。如果训练配置中,配置的为V1版本,模型就会保存在上面的文件夹中了。   这一切,都是全自动完成,无需你手动创建文件。   打开这两个文件夹,确认里面已经生成了模型文件。就基本证明微调训练成功了,接下来就是验证微调效果。   推理 所谓推理,其实就是应用训练好的模型。   点击1C-推理切换到微调界面,然后按下图进行操作:       添加图片注释,不超过 140 字(可选)   ①刷新模型路径,这个别忘了点。只有刷新后才能看到自己训练的模型。 ②选择GPT模型,一般选数字最大的,比如这里的e15。 ③选择SoVITS模型,同样道理,选尾巴上数字最大的模型。 ④勾选开启TTS推理界面,勾选后会自动跳出一个新的界面。     在跳出的新界面中,依旧有刷新模型和模型列表选项。前面设置过,这里就不用设置了。如果你有很多模型的情况下,可以在这个界面单独切换模型。 在这个界面中,主要完成两个操作,一个是设置参考声,一个是填写文字合成克隆声音。   参考声音设置:       添加图片注释,不超过 140 字(可选)   在③的地方上传一个几秒钟的声音文件作为参考声音,然后在④的地方输入这个参考声音对应的文本内容。这一部分的设置就算完成了。   ④这里的操作也并非必须,不填也不会爆炸。   参考声音,可以从前面切割好的音频文件中随便选一个。当然最好选清晰且有代表性的片段。所谓代表性,就是最能体现这个克隆对象音色的部分。   设置好参考对象之后,就可以生成克隆声音了。 具体设置如下:       添加图片注释,不超过 140 字(可选)   ①输入文本,就是输入要合成的内容。稍微长点也没关系,会自动切割处理。 ②设置参数,参数一般不用改,输入的是中文,语言就选中文。怎么切,是指点文本切割的方式,语速可以根据自己的需要调整。K,P,T参数一般不用调。 ③合成语音,点击按钮,一会儿就搞定了。 ④播放语音,最后点击播放验证效果。     到这里,整个声音克隆的准备,微调,合成就已经完成了。GPT-SoVITS的声音克隆,是基于文本转语音的克隆方式,而不是直接改变语音的音色。直接改变音色,我们一般归类为变声,比如我们之前介绍的RVC项目,这个项目类似的功能还在“施工中”可以期待一下。   因为我常年倒腾这些项目,已经练就了一些被动避坑技能。所以在使用这个项目的过程中非常丝滑,并没有遇到任何问题。所以也没有太多异常处理建议。如果你们遇到了,可以留言,或者阅读官方手册。   从拿到软件,开始自己跑demo,记录完整的过程,写文章,修改内容,花了三天时间,打了4000多字。看到这里的可以动动手指哦。   收工收工,玩得愉快!  

软件和官方文档

见博客文末:https://www.tonyisstark.com/2864.html

     

标签:训练,140,模型,注释,文件夹,SoVITS,GPT,2.0,克隆
From: https://www.cnblogs.com/wangpg/p/18374830

相关文章

  • 我一直在X上试用Grok-2——它确实是ChatGPT和Gemini的有力竞争对手
    Grok-2是一个内置于X平台并通过其内容训练的人工智能聊天机器人,现在已经进入了beta版,这是其前身的巨大进步,使其跻身于领先的AI聊天工具之列,与ChatGPT、Claude和GoogleGemini等齐名。在发布后不久,Grok-2进入了LMSys聊天机器人竞技场排行榜的前五名。这些是对领先LLMs的人工评......
  • pve(‌Proxmox Virtual Environment)-GPT4回答的关于CT容器的一些问题
    文章目录前言一、pve中的ct虚拟机是干嘛用的?**CT(容器)与VM(虚拟机)的区别****在PVE中使用CT的优点**二、怎么使用呢,比如我要启动一个nginx容器?1.**创建一个LXC容器**2.**启动并进入容器**3.**在容器中安装Nginx**4.**访问Nginx**5.**管理容器**三、创建一......
  • 刚推出SearchGPT结果被曝亏损50亿美元,OpenAI寿命只剩一年了?
    OpenAI前几天宣布了一项令人惊讶的消息——推出人工智能搜索引擎原型SearchGPT,直接挑战谷歌在在线搜索市场的主导地位。这一大胆举动预示着人工智能搜索大战将大幅升级,并可能重塑用户在网络上查找信息和与信息互动的方式。01.SearchGPT带来新变化SearchGPT是一个新的人......
  • Blazor开发框架Known-V2.0.9
    V2.0.9Known是基于Blazor的企业级快速开发框架,低代码,跨平台,开箱即用,一处代码,多处运行。本次版本主要是修复一些BUG和表格页面功能增强。官网:http://known.pumantech.comGitee:https://gitee.com/known/KnownGithub:https://github.com/known/Known概述基于C#和Blazor的快......
  • 写论文找不到灵感?ChatGPT能提供的一些帮助
    学境思源,一键生成论文初稿:AcademicIdeas-学境思源AI论文写作在学术写作过程中,许多读者常常会面临一个问题——找不到灵感。面对庞大的文献和复杂的研究方向,往往感到无从下手。随着人工智能技术的发展,像ChatGPT这样的智能助手逐渐成为解决这一难题的有力工具。今天的分享将......
  • ChatGPT协助论文写作各阶段指令示例
    学境思源,一键生成论文初稿:AcademicIdeas-学境思源AI论文写作在学术论文写作过程中,我们经常面临选题、文献综述、研究设计、数据分析、写作润色等多方面的挑战。人工智能技术的发展为这些挑战提供了新的解决方案。ChatGPT作为一款强大的语言模型,能够在论文写作的各个阶段提......
  • 国内外ChatGPT镜像网站集合【2024-8月最新】~
     一、GPT4o& &4.0turbo&GPT4omini介绍总有人问我,GPT4o、GPT4.0和GPT3.5有什么区别?国内怎么才能用上,听说很复杂以一张表来表达他们的区别吧GPT3.5、GPT3.5Turbo、GPT4.0均已经被官方放弃维护,也就是说我们其实已经使用不到这几个模型了。目前官方主流开放的模型有GP......
  • 一网打尽,国内外ChatGPT镜像网站集合【2024-08最新】AI编程、AI写作、AI对话、AI翻译、
    一网打尽,我经过一年多搜集的各种AI工具,使用的都是最强最新的大语言模型,都是在各自领域独领风骚的产品。1:【AI站点】AIPlus 推荐指数:⭐️⭐️⭐️⭐️⭐️推荐理由:一个AI综合网站,有多个GPT和绘画站,每个站点都很流畅且可用2:【AI编程】https://zed.dev/推荐指数:⭐️⭐️⭐️⭐️⭐️推荐理......
  • LLM | 一文带你揭秘大语言模型ChatGPT的原理
    本文包含大量AI干货预计阅读时间:10分钟本文学习目标:定义语言模型和大型语言模型(LLM)。介绍关键的LLM概念,包括TransFormer和自注意力机制。介绍LLM提示工程、微调和Rag,以及当今热门的大语言模型应用。前言在当今的科技时代,大型语言模型(LLM)正以惊人的速度发展并......
  • GPT4SM论文阅读笔记
    AreGPTEmbeddingsUsefulforAdsandRecommendation?论文阅读笔记Abstract现存的问题:​ 尽管LLMs潜力巨大,但关于其文本嵌入是否能帮助广告和推荐服务的讨论却十分有限。提出方法:​ 为了探索GPT嵌入在广告和推荐中的应用,我们提出了三种策略,将LLMs的知识整合到基本P......