首页 > 其他分享 >凭“难听”上热搜的 idol 们,不如考虑下让 Transformer 帮您作曲?

凭“难听”上热搜的 idol 们,不如考虑下让 Transformer 帮您作曲?

时间:2023-05-02 10:32:48浏览次数:34  
标签:视频 Transformer 作曲 AI 难听 小编 bug idol


凭“难听”上热搜的 idol 们,不如考虑下让 Transformer 帮您作曲?_webrtc

视频制作 | 白鹡鸰
编 | 小轶

考虑到 “AI 音乐”这一主题的特殊性,唯有多媒体的视频形式才能更好地给大家带来视听上的多重感受。于是,小屋的白鸟鸟同学在科研间隙连续肝了好几个晚上,才得以完成这次视频。然而在上周的推送中,不知道微信出了什么 bug,最最精华的视频部分居然消失了!所以今天又特意为这期视频单独发了一篇推送。还请各位移步下方小程序链接观看视频~

在这短短 10 分钟的视频中,白鸟鸟将带大家快速了解 AI music 的主流模型。值得一提的是,视频的背景音乐全程全部由 AI 自动生成。其中,小编认为最为惊艳的一首是8分49秒开始的这首超燃交响曲 I am AIVA(小轶前几天深夜听完这首的全曲,直接 high 到失眠,没办法只好爬起来写了会儿 bug (:з」∠))。


凭“难听”上热搜的 idol 们,不如考虑下让 Transformer 帮您作曲?_人工智能_02

相信大家看完也会和小编一样,惊叹于如今 AI 作曲的超高水准。相信 AI 作曲的不断发展能够一定程度拔高音乐创作的门槛,督促音乐人们不要再制造简单粗糙的声音了!!不然,我们还不如直接 listen to Transformer !!



凭“难听”上热搜的 idol 们,不如考虑下让 Transformer 帮您作曲?_github_03


标签:视频,Transformer,作曲,AI,难听,小编,bug,idol
From: https://blog.51cto.com/xixiaoyao/6239737

相关文章

  • 李宏毅transformer笔记
     首先这里解决的问题是Seq2Seq列出各种场景,语音识别,机器翻译,chatbot 当前现在NLP模型之所以这么重要,在于他的通用能力,很多场景都可以转换成Seq2Seqsummary,情感分析啊,只要你能通过QA和机器交互的场景都可以是Seq2Seq这里的例子,语法树解析,多元分类,甚至是对象识别Seq2Seq......
  • An Image Is Worth 16x16 Words: Transformers For Image Recognition At Scale
    模型如下图所示:将H×W×C的图像reshape成了N×(P2×C),其中(H,W)是图像的原始分辨率,C是通道数,(P,P)是每个图像块的分辨率,N=H×W/P2为图像块的数量,将一个图像块使用可学习的线性层映射到维度为D的隐藏向量,如式(1)所示,线性映射的输出称为patchembeddings.在patchembeddin......
  • 【阅读】Transformer
    参考AttentionIsAllYouNeedAGeneralSurveyonAttentionMechanismsinDeepLearning注意力足矣(AttentionIsAllYouNeed)一般注意力模型这个模型接受一个输入,执行指定的任务,然后产生所需的输出输入\(X_{d_x\timesn_x}=[{\boldsymbolx}_1,\dots,{\bold......
  • Transformers 发展一览
    动动发财的小手,点个赞吧!Transformers研究概览1.介绍近年来,深度学习的研究步伐显着加快,因此越来越难以跟上所有最新发展。尽管如此,有一个特定的研究方向因其在自然语言处理、计算机视觉和音频处理等多个领域取得的成功而备受关注。这在很大程度上归功于其高度适应性的架构。......
  • 大规模 Transformer 模型 8 比特矩阵乘简介 - 基于 Hugging Face Transformers、Accel
    引言语言模型一直在变大。截至撰写本文时,PaLM有5400亿参数,OPT、GPT-3和BLOOM有大约1760亿参数,而且我们仍在继续朝着更大的模型发展。下图总结了最近的一些语言模型的尺寸。由于这些模型很大,因此它们很难在一般的设备上运行。举个例子,仅推理BLOOM-176B模型,你就需要8......
  • Attention Is All You Need—transformer详解
    AttentionIsAllYouNeed论文transformer代码以下大部分是根据论文理解进行的总结和概括,如有疑问,欢迎交流~transformer仅仅使用注意力机制,没有使用任何的卷积或者RNN结构。传统RNN结构的当前隐层状态\(h_t\)需要当前时刻的输入以及上一时刻的隐状态输入\(h_{t-1}\),受到这一......
  • 如何生成文本: 通过 Transformers 用不同的解码方法生成文本
    简介近年来,随着以OpenAIGPT2模型为代表的基于数百万网页数据训练的大型Transformer语言模型的兴起,开放域语言生成领域吸引了越来越多的关注。开放域中的条件语言生成效果令人印象深刻,典型的例子有:GPT2在独角兽话题上的精彩续写,XLNet以及使用CTRL模型生成受控文本等......
  • Transformer
    参考:transform的paper出处:https://blog.csdn.net/qq_40585800/article/details/112427990发展Transformer是由谷歌于2017年提出的具有里程碑意义的模型,同时也是语言AI革命的关键技术。在此之前的SOTA模型都是以循环神经网络为基础(RNN,LSTM等)。从本质上来讲,RNN是以串行的方式......
  • 深入了解 Transformers – Part 1: 介绍 Transformer 模型
    动动发财的小手,点个赞吧!自从最新的LargeLanguageModels(LLaM)发布以来,如OpenAI的GPT系列、开源模型Bloom或谷歌发布的LaMDA等,Transformer展现出了巨大的潜力,成为了深度学习的前沿架构楷模。尽管已经有几篇文章介绍了transformer及其背后的数学原理,但在本文中,我想结合我认为最......
  • 1000层的Transformer,诞生了!
    卖萌屋今日学术精选大家好,我是卖萌酱。今天下午卖萌屋作者群里一位MILA实验室的大佬在临睡前(蒙特利尔时间凌晨0点半)甩出来一篇论文:大佬表示太困了,肝不动了,于是卖萌酱左手抄起一罐咖啡,右手接过论文就开始肝了,必须第一时间分享给卖萌屋的读者小伙伴们!论文链接:https://arxiv.org/pdf/......