首页 > 其他分享 >Google使用AI改进了 Sheets;开源视觉语言模型llama3v;开源情绪语音模型ChatTTS;

Google使用AI改进了 Sheets;开源视觉语言模型llama3v;开源情绪语音模型ChatTTS;

时间:2024-05-29 16:04:28浏览次数:25  
标签:RAG ChatTTS 模型 开源 AnyNode https com

✨ 1: Google has improved Sheets with AI.

Google 使用 AI 改进了 Sheets

在这里插入图片描述

您可以使用 Gemini 处理您的数据并将其变成老师。

  1. 优化您的数据

Gemini 了解您的数据并提出改进建议。

例如,它可以将重复数据转换为更实用的下拉框。

  1. 解释数据

通过单击双子座图标,您可以自动获得表格的摘要。

您也可以通过提示直接提出问题。

3.教我

不再需要弄清楚如何处理数据或使用特定功能。

只需询问双子座如何操作并获得分步指南即可。

例如:“教我如何使用带有色标的条件格式。“

  1. 自然语言代替公式

如果你不知道公式,只需向双子座解释你想计算什么。

例如:“创建一个公式来计算西部地区所有产品的平均单价。“

地址:https://workspace.google.com/"

✨ 2: llama3v

llama3v模型通过结合Llama3 8B和siglip-so400m,实现了图像-文本生成的顶级性能。

在这里插入图片描述

llama3v是一种由Llama3 8和Bsiglip-so400m驱动的SOTA视觉模型

  • 开源的最先进视觉语言模型(VLLM)
  • 可以在本地快速推理
  • 可通过Huggingface获得模型权重
  • 已发布推理代码(训练代码将很快发布)

地址:https://github.com/mustafaaljadery/llama3v

✨ 3: FlashRAG

FlashRAG是一个高效研发RAG的Python工具包,包含32个基准数据集及12个先进算法。

在这里插入图片描述

FlashRAG 是一个用于再现和开发检索增强生成(RAG)研究的Python工具包。该工具包包括32个预处理后的RAG基准数据集和12种最先进的RAG算法。

  1. 广泛且可定制的框架:包含RAG场景中所需的关键组件,如检索器、重排序器、生成器和压缩器,允许灵活地组装复杂的流水线。
  2. 全面的基准数据集:涵盖32个预处理后的RAG基准数据集,用于测试和验证RAG模型的性能。
  3. 预实现的高级RAG算法:基于此框架,提供了12种先进的RAG算法,并可以在不同设置下轻松复现结果。
  4. 高效的预处理阶段:提供各种脚本简化RAG工作流程的准备,如语料库处理、检索索引构建和文档预检索等。
  5. 优化的执行:通过工具如vLLM、FastChat和Faiss实现LLM推理加速和向量索引管理来提升库的效率。

地址:https://github.com/RUC-NLPIR/FlashRAG

✨ 4: ChatTTS

ChatTTS 是专为对话场景设计的文本到语音模型,支持中文和英文生成。

在这里插入图片描述

ChatTTS 是一款专为对话场景设计的文本转语音(Text-to-Speech, TTS)模型,特别适用于大语言模型(LLM)助手。该模型支持中英文,并经过100,000+小时的中英文语音数据训练。HuggingFace 上的开源版本是基于40,000小时数据进行预训练的模型,无SFT(监督微调)。

  1. 对话TTS:ChatTTS 针对对话任务进行优化,能够生成自然且富有表现力的语音,支持多位说话者,实现互动对话。
  2. 细粒度控制:该模型可以预测和控制包括笑声、停顿、感叹词等细粒度的韵律特征。
  3. 更好的韵律:ChatTTS 在韵律方面超越了大多数开源TTS模型,提供了预训练模型以支持进一步的研究和开发。

地址:https://github.com/2noise/ChatTTS

✨ 5: AnyNode

AnyNode是一个利用LLM进行输入处理并生成任意类型输出的ComfyUI节点。

在这里插入图片描述

AnyNode 是一个集成在 ComfyUI 中的节点插件,利用大语言模型(LLM)的强大功能,根据你的输入生成任何类型的输出。用户可以通过简单的输入生成多种复杂的任务和处理功能。AnyNode 的最大特点是它能够自动生成Python函数,基于提供的输入和输出需求来完成特定的任务。

AnyNode 为用户在 ComfyUI 中创建自定义处理节点提供了极大的灵活性和便利性,是一款功能强大的插件工具。

地址:https://github.com/lks-ai/anynode



更多AI工具,参考国内AiBard123Github-AiBard123

公众号:每日AI新工具

标签:RAG,ChatTTS,模型,开源,AnyNode,https,com
From: https://blog.csdn.net/weixin_40425640/article/details/139296816

相关文章

  • 亮相CCIG2024,合合信息文档解析技术破解大模型语料“饥荒”难题
      近日,2024中国图象图形大会在古都西安盛大开幕。本届大会由中国图象图形学学会主办,空军军医大学、西安交通大学、西北工业大学承办,通过二十多场论坛、百余项成果,集中展示了生成式人工智能、大模型、机器学习、类脑计算等多个图像图形领域的进展。大模型技术......
  • 基于最新发表的端到端实时目标检测模型YOLOv10开发构建自己的个性化目标检测系统从零
    在我前面的系列博文中,对于目标检测系列的任务写了很多超详细的教程,目的是能够读完文章即可实现自己完整地去开发构建自己的目标检测系统,感兴趣的话可以自行移步阅读:《基于官方YOLOv4-u5【yolov5风格实现】开发构建目标检测模型超详细实战教程【以自建缺陷检测数据集为例】》......
  • 一起学习大模型 - langchain里的 PromptTemplate详细介绍
    文章目录前言一、安装LangChain二、基本用法1.导入库并定义模板2.填充模板三、进阶用法1.使用多个变量2.嵌套模板3.动态变量四、应用模板与大模型交互五、疑问解答1.举例说明2.更详细的例子总结前言上一篇文章我们讲了Prompt的概念和作用(大模型的交......
  • 大模型应用:太普软件基于大数据模型的知识助理场景
    随着数字革命的汹涌澎湃,人工智能的核心——大模型技术,正日益显现其促进人与机器协作共进的决定性作用。广州太普软件科技有限公司(以下简称“太普软件”)依托自研先进技术,巧妙地将大模型知识助理嵌入各行各业的服务之中,使其在知识问答、架构搭建、信息整合及智能推荐等领域展现......
  • windows ollama 指定模型下载路径
    为Ollama指定模型的下载路径在Windows系统中,如果想为Ollama指定模型的下载路径,可以通过设置环境变量来实现。以下是详细的步骤:确定默认下载路径:默认情况下,Ollama的模型可能会下载到C:\Users\<用户名>\.ollama\models目录下。设置新的下载路径:如果想更改这个默认路径,需要设......
  • huggingface 下载与训练模型时会报 SSLERROR 连接 错误,解决办法如下
    我用方案一解决解决方案方案1:使用代理(需要梯子)在你的Python代码的开头加上如下代码importosos.environ['HTTP_PROXY']='http://proxy_ip_address:port'os.environ['HTTPS_PROXY']='http://proxy_ip_address:port'其中 http://proxy_ip_address:port 中的 ......
  • 【机器学习】Chameleon多模态模型探究
    Chameleon:引领多模态模型的新时代一、多模态模型的时代背景二、Chameleon模型的介绍三、Chameleon模型的技术特点四、Chameleon模型的性能评估五、Chameleon模型的代码实例随着人工智能技术的深入发展,我们逐渐认识到单一模态的模型在处理复杂问题时存在一定的局限......
  • 双亲委派模型
    双亲委派模型并不是一种强制性的约束,只是JDK官方推荐的一种方式。每⼀个类都有⼀个对应它的类加载器。系统中的ClassLoder在协同⼯作的时候会默认使⽤双亲委派模型。JVM启动的时候,并不会一次性加载所有的类,而是根据需要去动态加载。也就是说,大部分类在具体用到的时候才会......
  • LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型
    LLM大模型学习必知必会系列(八):10分钟微调专属于自己的大模型1.环境安装#设置pip全局镜像(加速下载)pipconfigsetglobal.index-urlhttps://mirrors.aliyun.com/pypi/simple/#安装ms-swiftpipinstall'ms-swift[llm]'-U#环境对齐(通常不需要运行.如果你运行错......
  • 微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
    大型语言模型(llm)是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在培训结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,......