首页 > 其他分享 >智谱开源 CogVideoX-5B 视频生成模型,RTX 3060 显卡可运行;曝 OpenAI 模型「草莓」今秋推出

智谱开源 CogVideoX-5B 视频生成模型,RTX 3060 显卡可运行;曝 OpenAI 模型「草莓」今秋推出

时间:2024-08-28 16:39:36浏览次数:10  
标签:AI 模型 3060 Artifacts CogVideoX 推理 草莓

 

 

 

开发者朋友们大家好:

 

这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

 

本期编辑:@SSN,@鲍勃

01 有话题的新闻

 

1、曝 OpenAI 高级推理 AI 产品「草莓」秋季推出

 

路透社曾爆料 OpenAI 正在开发一个名为「草莓」的 AI 产品,旨在提高 AI 的高级推理能力,The Information 昨日的一篇报道再次证实了这个产品的存在。

 

据知情人士透露,这款人工智能模型预计最早将于今年秋季作为聊天机器人的一部分推出,可能集成于 ChatGPT 平台中。「草莓」的一大亮点在于其能够解决前所未见的数学问题,这是当前聊天机器人所无法企及的。此外,通过特定训练,「草莓」还能应对编程相关的挑战。

 

然而,「草莓」并不局限于回答与技术相关的问题,如果有更多的时间去「思考」,它同样擅长处理更为主观的话题,如产品营销策略咨询。为了展示「草莓」在处理语言相关任务方面的能力,OpenAI 的研究人员已展示了其解决复杂字谜游戏的实例。

 

推出「草莓」是 OpenAI 持续创新的一部分,旨在与财力雄厚的对手竞逐生成式人工智能及大语言模型领域的领导地位。这项技术不仅引领未来趋势,还为解决多步骤任务的智能体(Agent)产品奠定基础,这些智能体被寄予厚望,可能成为新的收入增长点。

 

据悉,OpenAI 在今年夏天向美国国家安全官员展示了「草莓」。(@腾讯科技)

 

2、智谱 AI 开源 CogVideoX-5B 视频生成模型,RTX 3060 显卡可运行

 

智谱 AI 开源了 CogVideoX-5B 视频生成模型,相比此前开源的 CogVideoX-2B,官方称其视频生成质量更高,视觉效果更好。

 

官方表示大幅度优化了模型的推理性能,推理门槛大幅降低,可以在 GTX 1080Ti 等早期显卡运行 CogVideoX-2B ,在 RTX 3060 等桌面端「甜品卡」运行 CogVideoX-5B 模型。

 

CogVideoX 是一个大规模 DiT(diffusion transformer)模型,用于文本生成视频任务,主要采用了以下技术:

 

  • 3D causal VAE:通过压缩视数据到 latent space,并在时间维度上进行解码来实现高效的视频重建。

  • 专家 Transformer:将文本 embedding 和视频 embedding 相结合,使用 3D-RoPE作为位置编码,采用专家自适应层归一化处理两个模态的数据,以及使用 3D 全注意力机制来进行时空联合建模。(@IT 之家)

 

3、Anthropic 向所有 Claude 用户开放 Artifacts AI 功能

 

AI 科技公司 Anthropic 于今日发布博文,宣布面向所有 Claude 用户开放 Artifacts 功能,用户现在可以在 iOS 和安卓版 Claude 应用中创建和浏览 Artifacts。

 

Artifacts 于今年 6 月推出预览版,官方称用户目前已经创建了数千万个 Artifacts。

 

Artifacts 相当于创建了一个动态工作区,用户和 Claude 对话让其生成文档、代码、矢量图,甚至是简单的游戏过程中,Artifacts 会出现聊天界面旁边,方便用户实时查看、迭代和创建你的作品。例如,在编写代码时,用户可以实时看到 Claude 提出的建议,并立即测试修改后的版本;在创作故事或撰写文章时,用户也可以随时采纳 Claude 的创意,不断丰富和完善作品。

 

此外,Artifacts 还支持用户之间的协作。多个用户可以围绕同一个项目进行合作,共享彼此的想法和成果,并且能够清晰地追踪每个用户的贡献。(@AIGC 开放社区)

 

4、Cerebras 推出 AI 推理解决新方案,速度是英伟达方案的 20 倍

 

Cerebras Systems 今日宣布推出 Cerebras Inference,官方称这是全球最快的 AI 推理解决方案。该新解决方案为 Llama 3.1 8B 提供每秒 1800 个 token,为 Llama 3.1 70B 提供每秒 450 个 token,速度是微软 Azure 等超大规模云中提供的基于英伟达 GPU 的 AI 推理解决方案的 20 倍。

 

除了令人难以置信的性能之外,这款新型推理解决方案的定价也比流行的 GPU 云低得多,起价仅为每百万个 token 10 美分,从而为 AI 工作负载提供 100 倍更高的性价比。

 

该方案将允许 AI 应用程序开发人员构建下一代 AI 应用程序,而不会影响速度或成本。该方案使用了 Cerebras CS-3 系统及其 Wafer Scale Engine 3(WSE-3)AI 处理器,其中 CS-3 的内存带宽是 Nvidia H100 的 7000 倍,解决了生成式 AI 的内存带宽技术挑战。

 

据了解,Cerebras Inference 提供以下三个层级:

 

  • 免费层为登录的任何人提供免费的 API 访问和慷慨的使用限制

  • 开发者层专为灵活的无服务器部署而设计,为用户提供一个 API端点,其成本只是市场上替代方案的一小部分,Llama 3.1 8B 和 70B 模型的定价分别为每百万 token 10 美分和 60美分

  • 企业层提供微调模型、定制服务级别协议和专门支持。企业可以通过 Cerebras 管理的私有云或客户场所访问 Cerebras Inference,非常适合持续的工作负载(@IT 之家)

 

5、智谱 AI 宣布 GLM-4-Flash 大模型免费开放,支持 26 种语言

 

智谱 AI 昨日宣布,旗下 GLM-4-Flash 大模型免费开放,注册开放平台 bigmodel.cn 就可以通过调用 GLM-4-Flash 构建专属模型和应用。

 

据介绍,GLM-4-Flash 适用于完成简单垂直、低成本、需要快速响应的任务,生成速度能达到 72.14 token/s,约等于 115 字符/s。同时,GLM-4-Flash 具备多轮对话、网页浏览、Function Call(函数调用)和长文本推理(支持最大 128K 上下文)等功能,支持包括中文、英语、日语、韩语、德语等在内的 26 种语言。

 

官方表示,通过采用自适应权重量化、多种并行化方式、批处理策略以及投机采样等多种方法,在推理层面实现模型的延迟降低与速度提升,更大并发量和吞吐量不仅提升了效率,而且让推理成本显著降低,从而免费推出。

 

在预训练方面,官方引入了大语言模型进入数据筛选流程,获得 10T 高质量多语言数据,数据量是 ChatGLM3-6B 模型的 3 倍以上;同时采用了 FP8 技术进行预训练,提高了训练效率和计算量。(@IT 之家)

02 有态度的观点

1、字节火山引擎总裁谭待:现在大模型价格回归正常水平,原来太贵了

 

字节跳动旗下火山引擎总裁谭待在上周接受澎湃新闻采访时,谈到了此前行业内发生的 AI 大模型 「价格战」。

 

谭待认为,大模型原来的价格太贵了,现在是价格回归到应该回归的地方,这不是价格战。区别在于,像是字节火山引擎这样的公司有能力做到,而别人不一定有能力。

 

针对目前 AI 面临巨大投入和商业回报不匹配的困扰,谭待认为,要先把现阶段的小回报慢慢积累,未来才能获得更好的回报,目前字节豆包大模型的技术创新还是为商业而服务,更偏向于走务实路线。

 

对于 AI「超级应用」会何时出现的问题,谭待表示,只能交给时间回答,「就像移动互联网发展之初没有抖音、滴滴、美团、快手,未来谁都无法预测」。(@爱范儿)

 

写在最后:

 

我们欢迎更多的小伙伴参与「RTE 开发者日报」内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

 

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

 

 

素材来源官方媒体/网络新闻

标签:AI,模型,3060,Artifacts,CogVideoX,推理,草莓
From: https://www.cnblogs.com/Agora/p/18385027

相关文章

  • AI大模型智能体技术在企业商业展示中的应用方案
    企业AI大模型智能体展厅解决方案旨在为企业展厅大屏或在线网站引入AI数字员工,通过全方位、互动性强、深度展示的方式,向来访者展示企业的战略、品牌、产品和服务,并突出展示企业所取得的成就和成果。数字员工可智能化处理不同访客的需求,实现语音交互和个性化介绍,提升企业展厅的互......
  • 使用统计方法在AMD GPU上使用JAX Profiler可靠地比较大型生成AI模型中的算法性能
    UsingstatisticalmethodstoreliablycomparealgorithmperformanceinlargegenerativeAImodelswithJAXProfileronAMDGPUs—ROCmBlogs摘要本文提供了一份详细的指南,介绍如何在JAX实现的生成AI模型中测量和比较各种算法的性能。利用JAXProfiler和统计分析......
  • .NET8 接入qwen2大语言模型
    前言dotnet8项目接入qwen大模型,这个主要用到了大模型管理工具叫做ollama有了它,接入大模型soeasy。使用ollama可以接入很多大模型,详见:https://ollama.com/library环境vs2022previewdotent8Windows10企业版1、下载ollamahttps://github.com/ollama/ollama安装完成......
  • linux总线设备驱动模型
    linux总线设备驱动模型platform平台驱动模型linux自带I2C、SPI、USB等总线。但是在SOC中有些外设是没有总线这个概念的,但是又要使用总线、驱动和设备模型该怎么办呢?为了解决此问题,Linux提出了platform这个虚拟总线,相应的就有platform_driver和platform_devi......
  • 绘制ply模型顶点的法线(通过两点)
    importtrimeshimportmatplotlib.pyplotasplt#读取点云文件mesh=trimesh.load_mesh('test.ply')#计算法线mesh.vertex_normals#创建一个新的图形窗口fig=plt.figure()ax=fig.add_subplot(111,projection='3d')#绘制顶点ax.scatter(mesh.vertices[:,......
  • AI大模型prompt "自洽性"和"思维树" 这两种的区别
    一个是从多个角度对同一问题给出不同解答,选择最好的那个另外一个就像一棵树,有主干,还有分支,每个分支上还有更细分的理由比如:自洽性夏季气温升高是因为太阳光线更直接地照射到地球上。在夏天,太阳的光线以更垂直的角度到达地球表面,导致热量更集中。夏天,白天时间长,太阳照射的......
  • Apache RocketMQ 批处理模型演进之路
    作者:谷乂RocketMQ的目标,是致力于打造一个消息、事件、流一体的超融合处理平台。这意味着它需要满足各个场景下各式各样的要求,而批量处理则是流计算领域对于极致吞吐量要求的经典解法,这当然也意味着RocketMQ也有一套属于自己风格的批处理模型。至于什么样的批量模型才叫“属于......
  • 揭秘大模型概念与应用:探讨其在不同场景下的落地实践
    大模型是什么?大模型是指模型具有庞大的参数规模和复杂程度的机器学习模型。在深度学习领域,大模型通常是指具有数百万到数十亿参数的神经网络模型。大模型是指模型具有庞大的参数规模和复杂程度的机器学习模型。在深度学习领域,大模型通常是指具有数百万到数十亿参数的神经网......
  • 解码大语言模型奥秘!大规模语言模型:从理论到实践
    2022年11月,ChatGPT的问世展示了大模型的强大潜能,对人工智能领域有重大意义,并对自然语言处理研究产生了深远影响,引发了大模型研究的热潮。距ChatGPT问世不到一年,截至2023年10月,国产大模型玩家就有近200家,国内AI大模型如雨后春笋般涌现,一时间形成了百家争鸣、百花齐放的发展......
  • A股迎来中报季,合合信息文档解析技术辅助大模型深度解读财报
    财务报告是公众和投资者了解企业经营状况的主要信源之一。步入8月中下旬,上市公司进入了中报披露高峰期。据东方财富Choice数据统计,截至8月14日数据,A股有超过1715只个股公布了2024年半年度业绩预告,海量的财报文件对于金融行业从业者而言,无疑是巨大的工作量。 随着人工智能技术的......