热点:
    ZOL首页 > 云计算 > 正文

    Akamai与NVIDIA强强联手,以Inference Cloud开启AI智能新纪元

      [  中关村在线 原创  ]   作者:肖医

    2025 年 10月29日 -- 负责支持和保护网络生活的云服务提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)(NASDAQ:AKAM)宣布推出Akamai Inference Cloud,该平台通过将推理从核心数据中心扩展到互联网边缘,重新定义了应用 AI 的场景与方式。 

    Akamai Inference Cloud 能够在靠近用户和设备的边缘实现智能化的智能体 AI 推理。与传统系统不同,该平台是专为在全球范围内提供低延迟、实时边缘 AI 处理而打造的。此次推出的 Akamai Inference Cloud 依托 Akamai 在全球分布式架构方面的专业能力以及 NVIDIA Blackwell AI 基础架构,对释放 AI 真正潜力所需的加速计算进行了颠覆性的重构与扩展。

    Akamai与NVIDIA强强联手,以Inference Cloud开启AI智能新纪元

    从个性化数字体验、智能体到实时决策系统,下一代的 AI 应用程序迫切要求将 AI 推理部署在更靠近用户的位置,从而在用户的交互点实现即时互动,并就请求的路由路径做出智能决策。智能体工作负载日益需要低延迟推理、本地环境感知以及即时进行全球扩展的能力。专为推动此变革而打造的 Akamai Inference Cloud 是一个分布式、生成式边缘平台,它可以将 NVIDIA AI 技术栈部署在更靠近数据生成和决策制定的位置。

    Akamai首席执行官兼联合创始人Tom Leighton博士表示:"下一波AI浪潮的发展同样需要靠近用户——这正是互联网能够扩展为今天广泛应用的全球平台的原因。Akamai过去曾成功解决过这一难题,如今我们再次应对这一课题。依托NVIDIA的AI基础设施,Akamai Inference Cloud将通过部署在全球数千个节点的AI决策能力,来满足日益增长的AI推理算力与性能扩展的需求,从而实现更快速、更智能以及更安全的响应。"

    NVIDIA创始人兼首席执行官黄仁勋指出:"推理已成为AI中计算最密集的环节——需要在全球范围内进行实时推理。NVIDIA与Akamai共同协作正在将推理能力部署更靠近每一位用户,提供更快速、可扩展性更强的生成式AI服务,释放新一代智能应用的潜力。"

    Akamai Inference Cloud 通过将智能化的智能体 AI 推理扩展到更靠近用户和设备的位置,重新定义了应用 AI 的场景和方式。该平台将 NVIDIA RTX PRO Server(配备 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU、NVIDIA BlueField-3 DPU 和 NVIDIA AI Enterprise 软件)与 Akamai 的分布式云计算基础架构及在全球拥有超过 4,200 个位置的全球边缘网络相结合。Akamai Inference Cloud 将充分利用 NVIDIA 最新的技术(包括最近发布的 NVIDIA BlueField-4 DPU)来进一步加速和保护从核心到边缘的数据访问及 AI 推理工作负载,以推动 Akamai 实现其打造全球高度可扩展、分布式 AI 性能的愿景。

    Akamai 与 NVIDIA 共同协作,通过 Akamai Inference Cloud,以前所未有的大胆举措将 AI 推理拓展至全新领域,共同开创 AI 的新篇章:

    • 将企业级 AI 工厂扩展到边缘,以赋能商业智能体并实现个性化的数字体验:AI 工厂是强大的动力引擎,负责统筹管理从数据提取到大规模生成智能的整个 AI 生命周期。Akamai Inference Cloud 将 AI 工厂扩展到边缘,实现数据和处理的去中心化,并利用 Akamai 的大规模分布式边缘位置将请求路由至最优模型。这将使智能体能够即时适应用户的位置、行为和意图,并自主地实时完成协商、购买和交易优化。
    • 赋能流式推理和智能体,以提供即时金融见解并执行实时决策:AI 智能体需要多次连续推理才能完成复杂的任务,这会产生延迟,进而削弱用户参与度。智能体 AI 工作流程需要多次推理调用,而如果每次调用都会产生网络延迟,那么将导致体验出现迟滞,或者响应过慢而无法满足机器对机器的延迟要求。Akamai Inference Cloud 的边缘原生架构可提供近乎即时的响应,使 AI 智能体能够在多步骤工作流程中以媲美人类的响应速度运行。这在欺诈检测、加快安全支付速度以及为工业边缘实现高速决策方面非常有用。
    • 使实时实体 AI 能够以超越人类的响应速度运行:无人驾驶汽车、工业机器人和智慧城市基础设施等实体 AI 系统需要毫秒级精度的决策能力,才能安全地与现实世界进行交互。Akamai Inference Cloud 旨在为实体 AI 赋能,使其能够实时处理传感器数据、制定安全决策以及协调行动。这有助于将从工厂车间、配送无人机到手术机器人和无人驾驶交通网络的一切,转变为能够与人类进行安全协作、响应迅速的智能系统。
    • 加快价值实现速度:在多个云区域中编排复杂的分布式 AI 工作负载需要专业的技能和团队。Akamai Inference Cloud 的智能编排层会自动将 AI 任务路由到最优位置——常规推理会在边缘通过 NVIDIA  NIM 微服务即时执行,而复杂的推理会利用集中式的 AI 工厂,所有这些都通过统一的平台进行管理,从而消除了基础架构的复杂性。

    Akamai Inference Cloud 现已推出,首批将覆盖全球 20 个地点,并且正在计划进一步扩大部署范围。

    本文属于原创文章,如若转载,请注明来源:Akamai与NVIDIA强强联手,以Inference Cloud开启AI智能新纪元https://cloud.zol.com.cn/1071/10719326.html

    cloud.zol.com.cn true https://cloud.zol.com.cn/1071/10719326.html report 3831 2025 年 10月29日 -- 负责支持和保护网络生活的云服务提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)(NASDAQ:AKAM)宣布推出Akamai Inference Cloud,该平台通过将推理从核心数据中心扩展到互联网边缘,重新定义了应用 AI 的场景与方式。...
    • 猜你喜欢
    • 最新
    • 精选
    • 相关
    推荐经销商
    投诉欺诈商家: 010-83417888-9185
    • 北京
    • 上海
    周关注排行榜
    • 产品
    • 品牌
    推荐问答
    提问
    0

    下载ZOL APP
    秒看最新热品

    内容纠错