首页 > 其他分享 >2024 年 AI 技术应用趋势的预测

2024 年 AI 技术应用趋势的预测

时间:2024-01-12 18:35:32浏览次数:31  
标签:预测 AI 生成式 2024 LLM NVIDIA 企业 数据

生成式 AI 从年初开始崭露头角,到年末已经引起了轰动。许多企业正在竞相依靠 AI 提取文本、语音和视频的能力,生成能够彻底改变生产力、创新和创造力的新内容。

企业纷纷顺势而为。麦肯锡表示,像 OpenAI 的 ChatGPT 这样的深度学习算法在经过企业数据的进一步训练后,每年可在 63 个业务用例中创造相当于 2.6 万亿至 4.4 万亿美元的价值。

然而,管理海量内部数据往往被认为是扩大 AI 规模的最大障碍。NVIDIA 的 AI 专家预测,企业在 2024 年的工作重点将是“广交良友”,即与云服务提供商、数据存储和分析公司以及其他擅长高效处理、微调和部署大数据的公司建立合作伙伴关系。

这一切都将围绕大语言模型展开。NVIDIA 专家表示,LLM 研究的进展将被越来越多地应用于商业和企业应用中。RAG、自主智能体和多模态交互等 AI 功能将变得更易于获取,并且几乎可以通过任何平台轻松部署。

NVIDIA 企业计算副总裁MANUVIR DAS表示不存在一款万能的应用,企业正在接受定制化。任何企业都不会只有一到两个生成式 AI 应用,许多企业将拥有数百个定制化应用,这些应用使用的是适用于业务各个部分的专有数据。

在投入到生产中后,这些定制 LLM 将使用 RAG 功能连接数据源与生成式 AI 模型,从而作出更加准确、明智的回答。Amdocs、Dropbox、基因泰克公司(Genentech)、SAP、ServiceNow 和 Snowflake 等头部企业已经在使用 RAG 和 LLM 构建新的生成式 AI 服务。

开源软件引领潮流:借助开源预训练模型,企业将把能够解决特定领域挑战的生成式 AI 应用纳入其运营战略中。

如果企业能够将这些领先的模型与私有或实时数据相结合,就能加速提升整个企业的生产力和成本效益。AI 计算和软件将可以在几乎任何平台上使用,无论是云计算和 AI 模型代工服务,还是数据中心、边缘和桌面。

现成的 AI 和微服务:生成式 AI 推动了应用编程接口(API)端点的采用,使开发者能够更轻松地构建复杂的应用。

随着开发者将在 2024 年使用 RAG 等 AI 微服务定制成品 AI 模型,软件开发工具套件和 API 将更上一层楼。这将帮助企业运用能够获取最新业务信息的智能助手和摘要工具,充分挖掘出 AI 驱动的生产潜力。

开发者可以将这些 API 端点直接嵌入其应用,而且无需再为维护支撑这些模型和框架所需的基础设施而操心。终端用户也能体验到更加直观、反应更迅速且更符合其需求的定制应用。

NVIDIA 高性能计算和超大规模数据中心业务副总裁IAN BUCK说AI 将成为新时代的“太空竞赛”,每个国家都希望建立自己的卓越中心,以推动研究和科学的重大进步,提高国内生产总值。

只需要几百个节点的加速计算,就能快速建立起高效率、高性能的百亿亿次级 AI 超级计算机。由政府出资建造的生成式 AI 卓越中心,将通过创造新的工作岗位和建立更强大的大学项目来培养下一代科学家、研究人员和工程师,进而推动国家经济的增长。

量子飞跃:企业领导者将在两大关键驱动力之下发起量子计算研究计划:一是使用传统 AI 超级计算机模拟量子处理器的能力;二是混合经典-量子计算统一开放式开发平台的可用性。这使开发者能够使用标准编程语言构建量子算法,无须掌握需要定制的专业知识。

量子计算方面的探索曾被认为是计算机科学中的一个非主流的小领域。但随着企业与学术界和实验室共同推进材料科学、医药研究、亚原子物理和物流领域的快速发展,量子计算探索将成为主流。

NVIDIA AI 软件业务副总裁KARI BRISKI表示将 RAG 变成财富:企业将在 2024 年大力采用检索增强生成(RAG)AI 框架,围绕此的讨论也会跟多。

模型有时会因为无法获得与指定用例相关的足够准确信息而作出这种不准确或无意义的回答。

随着企业训练用于构建生成式 AI 应用和服务的 LLM,越来越多的人将 RAG 视为一种能够避免作出不准确或无意义回答的方法。

通过语义检索,企业将使用开源基础模型打通自己的数据,这样用户就能够从索引中检索到相关数据,然后在运行时将这些数据传递给模型。

企业可以使用更少的资源,为医疗、金融、零售和制造等行业创造出更准确的生成式 AI 应用。终端用户有望看到更加精进、更加符合上下文的多模态聊天机器人和个性化内容推荐系统,这将使他们能够自然、直观地与数据进行对话。

多模态“大显身手”:基于文本的生成式 AI 将成为过去式。尽管生成式 AI 仍处于起步阶段,但预计许多行业都将采用多模态 LLM,使消费者能够结合文本、语音和图像,对有关表格、图表或示意图的查询作出更加符合语境的回答。

Meta、OpenAI 等公司将通过加强对感官的支持来推动多模态生成式 AI 的发展,进而促进物理科学、生物科学和整个社会的进步。企业将不仅能够理解文本格式的数据,还能够理解 PDF、图表、幻灯片等格式的数据。

NVIDIA DGX系统副总裁CHARLIE BOYLE表示企业将定制 LLM 迁移到云端:企业在 2023 年认识到从头开始构建 LLM 并非易事。他们往往会因为需要投资于新的基础设施和技术而对这条路望而却步,而且他们还很难确定如何以及何时该优先开展公司的其他举措。

云服务提供商、主机托管提供商、以及其他提供企业数据处理服务的公司将通过全栈 AI 超级计算和软件来帮助企业。这将使各行各业的企业能够更轻松地定制和部署预训练模型。

在企业数据湖中挖掘 LLM 这座“金矿”:目前并不缺少关于普通企业信息存储量的统计数据,大型企业存储的信息量可能高达数百 PB。但许多公司都表示自己只挖掘了不到一半的信息来获取可执行的洞察。

2024 年,企业将开始借助生成式 AI,将那些未被利用的数据用于构建和定制 LLM。借助 AI 加持的超级计算,企业将开始挖掘自身的非结构化数据,包括聊天、视频和代码等,从而将其生成式 AI 开发工作扩展到训练多模态模型。这一巨大的进步超越了挖掘表格和其他结构化数据的能力,将使企业能够针对问题提供更加具体的答案,并发现新的机遇,包括帮助检测医学扫描图像中的异常情况,发现零售业的新兴趋势,以及提高运营安全等。

NVIDIA 企业平台副总裁BOB PETTE表示使用生成式 AI 创建新事物:通过生成式 AI,企业只需要与大语言模型进行对话就可以完成汽车的设计,或者使用新的技术和设计原则来从无到有创建新的城市。

建筑、工程、施工和运营(AECO)行业正在围绕生成式 AI 构建未来。AECO 和制造业的数百家生成式 AI 初创公司与客户将专注于为几乎所有用例创建解决方案,包括设计优化、市场洞见、施工管理和物理预测等。AI 将加速制造业的发展,提高效率、减少浪费并实现全新的生产和可持续发展方式。

开发者和企业尤其关注点云数据分析,该技术能够使用激光雷达生成具有精确细节的建筑和自然环境示意图。借助由生成式 AI 加速的工作流,这项技术将实现高保真的洞察和分析。

NVIDIA 网络业务高级副总裁GILAD SHAINER表示AI 飞速增长,连接需求激增:企业正在使用 GPU 和基于 GPU 的系统获得加速计算所需要的网络带宽,网络效率和性能也将再度成为其关注的焦点。

万亿参数的 LLM 将需要更快的传输速度和更广的覆盖范围。想要快速推行生成式 AI 应用的企业将需要投资于加速网络技术或者选择能够满足这一需求的云服务提供商。实现最佳连接的关键在于将其融入到加入了新一代软硬件的全栈系统中。

网络将成为设计数据中心的决定性因素:企业将认识到数据中心不必千篇一律。为数据中心选择合适网络的第一步是确定数据中心的用途。传统数据中心的带宽有限,而能够运行大型 AI 工作负载的数据中心需要成千上万个 GPU,而且这些 GPU 在运行时必须保证高度确定且较低的尾部延迟。

网络在大规模满负荷情况下的运行能力是确定性能的最佳指标。未来的企业数据中心需要通过独立的管理网络(又称南北向网络)和 AI 网络(又称东西向网络)连接。其中的 AI 网络包含专门用于高性能计算、AI 和超大规模云基础设施的网内计算。

NVIDIA 首席安全官DAVID REBER JR.明确使安全模式能够适应 AI:企业正在如火如荼地从以应用为中心的安全模式转向以数据为中心的安全模式。数据是 LLM 的基础供应链,同时也是生成式 AI 的未来。企业现在才刚刚看到这个问题大规模地显现,他们需要重新评估人员、流程和技术,重新定义安全开发生命周期(SDLC)。整个行业将重新定义信任的方法并明确透明度的含义。

新一代网络工具将应运而生。AI 的安全开发生命周期将由新的市场领导者来定义工具和使命,以完成从命令行界面到人类语言界面的过渡。随着越来越多的企业开始使用开源 LLM(如 Meta 的 Llama 2)加速生成式 AI 的输出结果,这一需求将变得尤为重要。

使用 AI 提升安全性:将 AI 应用于网络安全领域将能够检测出从未被发现的威胁。目前,全球只有一小部分数据被用于网络防御。与此同时,攻击者仍在不断利用每一个错误配置。

企业将通过实验认识到 AI 在发现突发威胁和风险方面的潜力。网络助手将帮助企业用户应对网络钓鱼和配置问题。为了使这项技术发挥作用,企业需要解决工作和个人生活交汇处固有的隐私问题,以便能够在以数据为中心的环境中实现集体防御。

除了实现技术的全民化之外,AI 也将在威胁不断增加的情况下造就新一代的网络防御者。一旦明确任何一种威胁,企业将使用 AI 生成海量数据,并使用这些数据训练下游检测器以防御并检测此类威胁。

标签:预测,AI,生成式,2024,LLM,NVIDIA,企业,数据
From: https://blog.51cto.com/u_16417045/9220176

相关文章

  • 2024,新酒饮如何与年轻人再碰杯?
    文|螳螂观察作者|易不二2012年,江小白拉着各怀心事的年轻人尝了第一口白酒,砸碎了白酒“只藏在窖里”的天花板。经历短暂高光,并不适口的江小白归于寂寥之后,又靠着果立方与梅见“梅开二度”。比江小白更早,主打预调鸡尾酒的锐澳,在低度酒赛道蛰伏多年后,等到了新酒饮潮流的到来,迎来了......
  • 生成式AI入门指南
    生成式人工智能技术使各类内容创作变得更加便捷,它能够接收多种形式的输入,如文字、图片、音频、动画、三维模型等,并据此生成全新的原创作品。生成式AI的定义生成式AI模型通过神经网络辨识现有数据中的规律和架构,从而创造出新的独特内容。这类模型的突破性进展之一在于,它们可以运用无......
  • 生成式AI技术有哪些应用场景
    生成式AI是简化创意人员、工程师、研究人员、科学家等工作流程的有力工具,其使用案例和可能性涵盖所有行业和个人。 生成式AI模型可以接收文本、图像、音频、视频和代码等输入,并将新内容生成成上述任何形式。例如,它将文本输入转换为图像,将图像转换为歌曲,或将视频转换为文本。 目前......
  • 基于AI视频智能分析技术的周界安全防范方案
    一、背景分析随着科技的不断进步,AI视频智能检测技术已经成为周界安全防范的一种重要手段。A智能分析网关V4基于深度学习和计算机视觉技术,可以通过多种AI周界防范算法,实时、精准地监测人员入侵行为,及时发现异常情况并发出警报,保障周界安全。智能分析网关V4内置了近40种AI算法模型,支......
  • AI烟火检测算法解决方案
    一、背景需求根据国家消防救援局公布的数据显示,2023年共接报处置各类警情213.8万起,督促整改风险隐患397万处。火灾危害巨大,必须引起重视。传统靠人工报警的方法存在人员管理难、场地数量多且分散等问题,无法有效发现险情降低火灾损失。利用智能分析网关V4烟火检测算法,可以及时准确地......
  • org.springframework.kafka.listener.ListenerExecutionFailedException: Listener me
    问题描述kafka在yml文件中未开启批量消费时,程序正常运行;但一开启正常消费后,就直接报错;排查问题的过程中一直觉得是配置文件里的问题,最后发现是消费者接受的参数类型错误 问题本质  消费者开启批量消费数据后,不能用单个实体类接收参数,而应该用list 解决方法  修改......
  • 【2024潇湘夜雨】WIN11_Pro_23H2.22631.3007软件选装纯净版1.12
    【系统简介】=============================================================1.本次更新母盘来自WIN11_Pro_23H2.22631.3007。2.增加部分优化方案,手工精简部分较多。3.OS版本号为22631.3007。精简系统只是为部分用户安装,个别要求高的去MSDN下。4.集成《DrvCeo-2.15.0.5》网卡版、......
  • Mixtral 8X7B MoE模型基于PAI的微调部署实践
    作者:熊兮、求伯、一耘引言Mixtral8x7B是MixtralAI最新发布的大语言模型,在许多基准测试上表现优于GPT-3.5,是当前最为先进的开源大语言模型之一。阿里云人工智能平台PAI是面向开发者和企业的机器学习/深度学习平台,提供了对于Mixtral8x7B模型的全面支持,开发者和企业用户可以基......
  • main函数是否需要返回值0的讨论
    在C和C++编程中,程序的入口点通常是main函数。对于main函数,是否需要使用return语句返回值0一直存在争议。本文将探讨main函数是否需要返回值0,并解释不同的观点和其影响。1.返回值0的作用在C和C++中,main函数的返回值表示程序的执行状态。返回值0通常表示程序成功执行并正常终止。因此......
  • Mixtral 8X7B MoE模型基于阿里云人工智能平台PAI实践合集
    作者:熊兮、贺弘、临在Mixtral8x7B大模型是MixtralAI推出的基于decoder-only架构的稀疏专家混合网络(Mixture-Of-Experts,MOE)开源大语言模型。这一模型具有46.7B的总参数量,对于每个token,路由器网络选择八组专家网络中的两组进行处理,并且将其输出累加组合,在增加模型参数总量的同时,优......