4MJUIqW6q8k tech.huanqiu.comarticleAkamai宣布推出战略级解决方案,成本可降低86%/e3pmh164r/e3pn4gh77【环球网科技综合报道】4月17日消息,Akamai宣布推出战略级解决方案Akamai Cloud Inference。据悉,这款基于其全球分布式云平台打造的AI推理解决方案,以突破性的性能指标引发行业关注——与传统超大规模云架构相比,其吞吐量提升3倍、延迟降低60%,成本降低86%。在生成式AI应用爆发的背景下,企业逐渐意识到大型语言模型(LLM)训练与推理环节的架构差异。彭博社预测到2032年AI推理市场规模将达1.3万亿美元,其他多份近期报告也印证了这一判断。这一市场转变预示着2025年将成为分布式AI推理加速发展的元年。"训练如同绘制地图,需要集中式超算中心;而推理更像是实时导航,必须在靠近用户的边缘发生。"Akamai云技术部门首席运营官兼总经理Adam Karon分析称,2025年大约有75%的数据将产生于传统云区域之外(Gartner数据),传统云架构在响应速度、数据传输成本等方面已稍显疲态。 在此背景下,Akamai推出Akamai Cloud Inference的解决方案,依托其覆盖130个国家、4200多个节点的分布式网络,构建了独特的"云-边协同"架构。通过与NVIDIA、VAST Data等生态伙伴的深度整合,该解决方案提供从GPU加速计算、向量数据库实时检索到WebAssembly边缘执行的完整技术栈。具体来看,该解决方案创新性地整合了CPU、GPU与量身定制的ASIC VPU,针对不同推理场景动态调配资源。同时,Akamai 还与 NVIDIA 的 NVIDIA AI Enterprise 生态系统进行了整合,利用 Triton、TAO Toolkit、TensorRT 和 NVFlare 来优化 NVIDIA GPU 上 AI 推理的性能。Akamai通过整合VAST Data实时数据访问、可扩展对象存储及Aiven/Milvus向量数据库技术,构建了支持检索增强生成(RAG)的智能数据架构,实现微调模型的安全存储与全球范围的低延迟AI推理。另外,Akamai通过Linode Kubernetes Engine企业版与最近发布的 Akamai App 平台,集成KServe、Kubeflow等开源工具构建容器化AI推理平台,实现PB级性能的自动扩展、混合多云部署及成本优化。据悉,Akamai与Fermyon等 Wasm 提供商合作,集成WebAssembly技术,使开发者能够借助无服务器架构直接在边缘端执行轻量化LLM推理,为延迟敏感型应用提供支持。(青云)1744875215896环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:郑湘琪环球网174487521589611[]{"email":"zhengxiangqi@huanqiu.com","name":"郑湘琪"}
【环球网科技综合报道】4月17日消息,Akamai宣布推出战略级解决方案Akamai Cloud Inference。据悉,这款基于其全球分布式云平台打造的AI推理解决方案,以突破性的性能指标引发行业关注——与传统超大规模云架构相比,其吞吐量提升3倍、延迟降低60%,成本降低86%。在生成式AI应用爆发的背景下,企业逐渐意识到大型语言模型(LLM)训练与推理环节的架构差异。彭博社预测到2032年AI推理市场规模将达1.3万亿美元,其他多份近期报告也印证了这一判断。这一市场转变预示着2025年将成为分布式AI推理加速发展的元年。"训练如同绘制地图,需要集中式超算中心;而推理更像是实时导航,必须在靠近用户的边缘发生。"Akamai云技术部门首席运营官兼总经理Adam Karon分析称,2025年大约有75%的数据将产生于传统云区域之外(Gartner数据),传统云架构在响应速度、数据传输成本等方面已稍显疲态。 在此背景下,Akamai推出Akamai Cloud Inference的解决方案,依托其覆盖130个国家、4200多个节点的分布式网络,构建了独特的"云-边协同"架构。通过与NVIDIA、VAST Data等生态伙伴的深度整合,该解决方案提供从GPU加速计算、向量数据库实时检索到WebAssembly边缘执行的完整技术栈。具体来看,该解决方案创新性地整合了CPU、GPU与量身定制的ASIC VPU,针对不同推理场景动态调配资源。同时,Akamai 还与 NVIDIA 的 NVIDIA AI Enterprise 生态系统进行了整合,利用 Triton、TAO Toolkit、TensorRT 和 NVFlare 来优化 NVIDIA GPU 上 AI 推理的性能。Akamai通过整合VAST Data实时数据访问、可扩展对象存储及Aiven/Milvus向量数据库技术,构建了支持检索增强生成(RAG)的智能数据架构,实现微调模型的安全存储与全球范围的低延迟AI推理。另外,Akamai通过Linode Kubernetes Engine企业版与最近发布的 Akamai App 平台,集成KServe、Kubeflow等开源工具构建容器化AI推理平台,实现PB级性能的自动扩展、混合多云部署及成本优化。据悉,Akamai与Fermyon等 Wasm 提供商合作,集成WebAssembly技术,使开发者能够借助无服务器架构直接在边缘端执行轻量化LLM推理,为延迟敏感型应用提供支持。(青云)