生成式 AI 从年初开始崭露头角,到年末已经引起了轰动。许多企业正在竞相依靠 AI 提取文本、语音和视频的能力,生成能够彻底改变生产力、创新和创造力的新内容。
企业纷纷顺势而为。麦肯锡表示,像 OpenAI 的 ChatGPT 这样的深度学习算法在经过企业数据的进一步训练后,每年可在 63 个业务用例中创造相当于 2.6 万亿至 4.4 万亿美元的价值。
然而,管理海量内部数据往往被认为是扩大 AI 规模的最大障碍。NVIDIA 的 AI 专家预测,企业在 2024 年的工作重点将是“广交良友”,即与云服务提供商、数据存储和分析公司以及其他擅长高效处理、微调和部署大数据的公司建立合作伙伴关系。
这一切都将围绕大语言模型展开。NVIDIA 专家表示,LLM 研究的进展将被越来越多地应用于商业和企业应用中。RAG、自主智能体和多模态交互等 AI 功能将变得更易于获取,并且几乎可以通过任何平台轻松部署。
NVIDIA 企业计算副总裁MANUVIR DAS表示不存在一款万能的应用,企业正在接受定制化。任何企业都不会只有一到两个生成式 AI 应用,许多企业将拥有数百个定制化应用,这些应用使用的是适用于业务各个部分的专有数据。
在投入到生产中后,这些定制 LLM 将使用 RAG 功能连接数据源与生成式 AI 模型,从而作出更加准确、明智的回答。Amdocs、Dropbox、基因泰克公司(Genentech)、SAP、ServiceNow 和 Snowflake 等头部企业已经在使用 RAG 和 LLM 构建新的生成式 AI 服务。
开源软件引领潮流:借助开源预训练模型,企业将把能够解决特定领域挑战的生成式 AI 应用纳入其运营战略中。
如果企业能够将这些领先的模型与私有或实时数据相结合,就能加速提升整个企业的生产力和成本效益。AI 计算和软件将可以在几乎任何平台上使用,无论是云计算和 AI 模型代工服务,还是数据中心、边缘和桌面。
现成的 AI 和微服务:生成式 AI 推动了应用编程接口(API)端点的采用,使开发者能够更轻松地构建复杂的应用。
随着开发者将在 2024 年使用 RAG 等 AI 微服务定制成品 AI 模型,软件开发工具套件和 API 将更上一层楼。这将帮助企业运用能够获取最新业务信息的智能助手和摘要工具,充分挖掘出 AI 驱动的生产潜力。
开发者可以将这些 API 端点直接嵌入其应用,而且无需再为维护支撑这些模型和框架所需的基础设施而操心。终端用户也能体验到更加直观、反应更迅速且更符合其需求的定制应用。
NVIDIA 高性能计算和超大规模数据中心业务副总裁IAN BUCK说AI 将成为新时代的“太空竞赛”,每个国家都希望建立自己的卓越中心,以推动研究和科学的重大进步,提高国内生产总值。
只需要几百个节点的加速计算,就能快速建立起高效率、高性能的百亿亿次级 AI 超级计算机。由政府出资建造的生成式 AI 卓越中心,将通过创造新的工作岗位和建立更强大的大学项目来培养下一代科学家、研究人员和工程师,进而推动国家经济的增长。
量子飞跃:企业领导者将在两大关键驱动力之下发起量子计算研究计划:一是使用传统 AI 超级计算机模拟量子处理器的能力;二是混合经典-量子计算统一开放式开发平台的可用性。这使开发者能够使用标准编程语言构建量子算法,无须掌握需要定制的专业知识。
量子计算方面的探索曾被认为是计算机科学中的一个非主流的小领域。但随着企业与学术界和实验室共同推进材料科学、医药研究、亚原子物理和物流领域的快速发展,量子计算探索将成为主流。
NVIDIA AI 软件业务副总裁KARI BRISKI表示将 RAG 变成财富:企业将在 2024 年大力采用检索增强生成(RAG)AI 框架,围绕此的讨论也会跟多。
模型有时会因为无法获得与指定用例相关的足够准确信息而作出这种不准确或无意义的回答。
随着企业训练用于构建生成式 AI 应用和服务的 LLM,越来越多的人将 RAG 视为一种能够避免作出不准确或无意义回答的方法。
通过语义检索,企业将使用开源基础模型打通自己的数据,这样用户就能够从索引中检索到相关数据,然后在运行时将这些数据传递给模型。
企业可以使用更少的资源,为医疗、金融、零售和制造等行业创造出更准确的生成式 AI 应用。终端用户有望看到更加精进、更加符合上下文的多模态聊天机器人和个性化内容推荐系统,这将使他们能够自然、直观地与数据进行对话。
多模态“大显身手”:基于文本的生成式 AI 将成为过去式。尽管生成式 AI 仍处于起步阶段,但预计许多行业都将采用多模态 LLM,使消费者能够结合文本、语音和图像,对有关表格、图表或示意图的查询作出更加符合语境的回答。
Meta、OpenAI 等公司将通过加强对感官的支持来推动多模态生成式 AI 的发展,进而促进物理科学、生物科学和整个社会的进步。企业将不仅能够理解文本格式的数据,还能够理解 PDF、图表、幻灯片等格式的数据。
NVIDIA DGX系统副总裁CHARLIE BOYLE表示企业将定制 LLM 迁移到云端:企业在 2023 年认识到从头开始构建 LLM 并非易事。他们往往会因为需要投资于新的基础设施和技术而对这条路望而却步,而且他们还很难确定如何以及何时该优先开展公司的其他举措。
云服务提供商、主机托管提供商、以及其他提供企业数据处理服务的公司将通过全栈 AI 超级计算和软件来帮助企业。这将使各行各业的企业能够更轻松地定制和部署预训练模型。
在企业数据湖中挖掘 LLM 这座“金矿”:目前并不缺少关于普通企业信息存储量的统计数据,大型企业存储的信息量可能高达数百 PB。但许多公司都表示自己只挖掘了不到一半的信息来获取可执行的洞察。
2024 年,企业将开始借助生成式 AI,将那些未被利用的数据用于构建和定制 LLM。借助 AI 加持的超级计算,企业将开始挖掘自身的非结构化数据,包括聊天、视频和代码等,从而将其生成式 AI 开发工作扩展到训练多模态模型。这一巨大的进步超越了挖掘表格和其他结构化数据的能力,将使企业能够针对问题提供更加具体的答案,并发现新的机遇,包括帮助检测医学扫描图像中的异常情况,发现零售业的新兴趋势,以及提高运营安全等。
NVIDIA 企业平台副总裁BOB PETTE表示使用生成式 AI 创建新事物:通过生成式 AI,企业只需要与大语言模型进行对话就可以完成汽车的设计,或者使用新的技术和设计原则来从无到有创建新的城市。
建筑、工程、施工和运营(AECO)行业正在围绕生成式 AI 构建未来。AECO 和制造业的数百家生成式 AI 初创公司与客户将专注于为几乎所有用例创建解决方案,包括设计优化、市场洞见、施工管理和物理预测等。AI 将加速制造业的发展,提高效率、减少浪费并实现全新的生产和可持续发展方式。
开发者和企业尤其关注点云数据分析,该技术能够使用激光雷达生成具有精确细节的建筑和自然环境示意图。借助由生成式 AI 加速的工作流,这项技术将实现高保真的洞察和分析。
NVIDIA 网络业务高级副总裁GILAD SHAINER表示AI 飞速增长,连接需求激增:企业正在使用 GPU 和基于 GPU 的系统获得加速计算所需要的网络带宽,网络效率和性能也将再度成为其关注的焦点。
万亿参数的 LLM 将需要更快的传输速度和更广的覆盖范围。想要快速推行生成式 AI 应用的企业将需要投资于加速网络技术或者选择能够满足这一需求的云服务提供商。实现最佳连接的关键在于将其融入到加入了新一代软硬件的全栈系统中。
网络将成为设计数据中心的决定性因素:企业将认识到数据中心不必千篇一律。为数据中心选择合适网络的第一步是确定数据中心的用途。传统数据中心的带宽有限,而能够运行大型 AI 工作负载的数据中心需要成千上万个 GPU,而且这些 GPU 在运行时必须保证高度确定且较低的尾部延迟。
网络在大规模满负荷情况下的运行能力是确定性能的最佳指标。未来的企业数据中心需要通过独立的管理网络(又称南北向网络)和 AI 网络(又称东西向网络)连接。其中的 AI 网络包含专门用于高性能计算、AI 和超大规模云基础设施的网内计算。
NVIDIA 首席安全官DAVID REBER JR.明确使安全模式能够适应 AI:企业正在如火如荼地从以应用为中心的安全模式转向以数据为中心的安全模式。数据是 LLM 的基础供应链,同时也是生成式 AI 的未来。企业现在才刚刚看到这个问题大规模地显现,他们需要重新评估人员、流程和技术,重新定义安全开发生命周期(SDLC)。整个行业将重新定义信任的方法并明确透明度的含义。
新一代网络工具将应运而生。AI 的安全开发生命周期将由新的市场领导者来定义工具和使命,以完成从命令行界面到人类语言界面的过渡。随着越来越多的企业开始使用开源 LLM(如 Meta 的 Llama 2)加速生成式 AI 的输出结果,这一需求将变得尤为重要。
使用 AI 提升安全性:将 AI 应用于网络安全领域将能够检测出从未被发现的威胁。目前,全球只有一小部分数据被用于网络防御。与此同时,攻击者仍在不断利用每一个错误配置。
企业将通过实验认识到 AI 在发现突发威胁和风险方面的潜力。网络助手将帮助企业用户应对网络钓鱼和配置问题。为了使这项技术发挥作用,企业需要解决工作和个人生活交汇处固有的隐私问题,以便能够在以数据为中心的环境中实现集体防御。
除了实现技术的全民化之外,AI 也将在威胁不断增加的情况下造就新一代的网络防御者。一旦明确任何一种威胁,企业将使用 AI 生成海量数据,并使用这些数据训练下游检测器以防御并检测此类威胁。
标签:预测,AI,生成式,2024,LLM,NVIDIA,企业,数据 From: https://blog.51cto.com/u_16417045/9220176