<!-- AI_TASK_START: AI标题翻译 -->
[新产品/新功能] Google Cloud 网络的最新动态
<!-- AI_TASK_END: AI标题翻译 -->
<!-- AI_TASK_START: AI竞争分析 -->
# 产品功能分析
## 新功能/新产品概述
Google Cloud 的网络创新聚焦于AI时代的需求,主要针对AI模型训练、推理和服务,提供高性能、安全和可扩展的网络解决方案。该系列创新包括AI优化网络、简化服务网络以及零信任安全措施,适用于企业构建分布式AI应用。**背景**:随着AI时代的到来,企业面临海量数据处理、网络容量和安全挑战,这些创新旨在解决这些问题。**目标用户群**:AI开发者和企业IT团队,如Snap Inc.和Shopify等,处理高并发AI工作负载。**市场定位**:Google Cloud 通过这些功能强化其在云计算市场的竞争力,尤其在AI基础设施领域,强调全球连接和性能优化。
## 关键客户价值
- **性能提升**:如GKE Inference Gateway可 _减少服务成本30%、尾延迟60%、增加吞吐量40%_,通过智能负载均衡和动态请求路由实现高效AI推理,帮助企业降低运营成本并提升响应速度。相比传统Kubernetes方案,此功能提供差异化优势,避免高并发下的资源浪费。
- 在突发流量场景中,动态LoRA模型优化进一步提升资源利用率,但需注意潜在的模型兼容性问题。
- **安全和可靠性**:零信任RDMA防火墙和端到端mTLS保护敏感数据传输,减少AI应用的安全风险;Cloud WAN提供 _高达99.99%的可靠性_ 和 _TCO节省40%_,简化全球网络管理,相比客户自管WAN减少复杂性和成本。
- 与竞品相比,Google Cloud的集成生态(如NVIDIA和Palo Alto Networks)增强了多云环境的无缝连接,但大规模部署可能面临初始配置挑战。
- **灵活性和扩展性**:Service Extensions支持边缘编程,使用WebAssembly自定义应用,加速web和AI服务;App Hub简化服务发现,支持跨区域故障转移,赋能开发团队快速迭代。
- 在多云环境中,此优势显著降低管理开销,但需评估特定用例中的网络延迟影响。
## 关键技术洞察
- **AI优化网络的技术独特性**:基于**RDMA networking**实现高达3.2Tbps的GPU间非阻塞通信,工作原理是通过低延迟硬件加速数据传输,提升AI训练效率。该创新点显著提高集群规模支持(如30,000 GPUs),对性能影响包括减少数据瓶颈,但在大规模组网时可能增加管理复杂性。
- **GKE Inference Gateway** 利用**Google Jetstream**和NVIDIA指标进行智能负载均衡,原理为动态路由和模型服务器监控,实现 _吞吐量提升40%_,创新性地集成AI安全工具如Model Armor,增强安全性;然而,冷启动问题可能在高负载时影响可用性。
- **安全和可编程技术的实现**:**Service Extensions**基于WebAssembly启用边缘编程,允许自定义插件扩展Cloud Load Balancing,工作原理是通过轻量级代码注入请求路径,提高应用灵活性。该技术对安全性的影响包括端到端mTLS保护数据完整性,但集成第三方工具如Symantec DLP可能引入轻微性能开销。
- **Cloud WAN**采用Google的全球骨干网络,提供可编程SD-WAN架构,核心机制为自动化路由和性能优化,相比传统WAN _改善性能40%_,但需考虑与现有网络架构的兼容性挑战。
- **总体评估**:这些技术在AI时代体现出先进性,如无缝多云支持,但潜在局限性在于零日威胁下的动态策略执行,可能要求额外监控以确保可行性。
## 其他信息
文档强调了Google Cloud与合作伙伴(如NVIDIA、Infoblox)的生态整合,通过**Network Security Integration**实现第三方安全插入,增强多云环境的政策一致性。该部分突出了实际用户案例,如Snap Inc.的资源优化和Shopify的自定义开发,体现了创新的实际应用价值。
<!-- AI_TASK_END: AI竞争分析 -->
<!-- AI_TASK_START: AI全文翻译 -->
# Google Cloud 网络的最新动态
**原始链接:** [https://cloud.google.com/blog/products/networking/networking-innovations-at-google-cloud-next25](https://cloud.google.com/blog/products/networking/networking-innovations-at-google-cloud-next25)
**发布时间:** 2025-04-10
**厂商:** GCP
**类型:** BLOG
---
网络
#
Google Cloud 网络的最新动态
2025 年 4 月 10 日

##### Muninder Sambi
VP, Cloud Networking
##### Rob Enns
VP & GM, Cloud Networking
##### Google Cloud Next
按需访问 Next 的亮点内容。
[Watch now](https://cloud.withgoogle.com/next/25?utm_source=cgc-blog&utm_medium=blog&utm_campaign=FY25-Q2-global-EXP106-physicalevent-er-next25-mc&utm_content=cgc-blog-left-hand-rail-post-next&utm_term=-)
AI 时代已经到来,它正彻底重塑各行各业,并对 AI 模型的训练、推理 (inference) 和服务提出前所未有的网络需求。为了推动这一变革,组织需要能够处理海量容量、实现无缝连接并提供强大安全性的全球网络解决方案。
在 Next 25 上,我们正在解决这些关键需求,并通过云网络产品和 [跨云网络 (Cross-Cloud Network)](https://cloud.google.com/solutions/cross-cloud-network) 解决方案的创新套件,帮助客户轻松构建和交付分布式 AI 应用。
这些创新包括 AI 优化网络、简化的安全服务网络,以及针对零日威胁的零信任安全。我们还在扩展 [跨云网络 (Cross-Cloud Network)](https://cloud.google.com/solutions/cross-cloud-network) 解决方案,以包括针对 Web、媒体和生成式 AI (Generative AI) 服务的可编程性和性能,以及我们最新的解决方案 [Cloud WAN](https://cloud.google.com/blog/products/networking/connect-globally-with-cloud-wan-for-the-ai-era),它利用我们广泛的全球基础设施,提供全托管的全球网络,用于企业位置间的安全、简化连接。
### AI 优化网络:高效、安全、可扩展
为了让你的 AI 模型发挥最佳性能,你需要一个能够处理海量数据和密集处理的网络。不管是训练大型模型还是为用户提供服务 (inference),速度、可靠性和安全性都至关重要。你要处理复杂的基础设施,并传输大量数据以实现快速响应。我们的创新专注于为这些高 demanding 的 AI 工作负载提供所需的基础设施:
- **海量数据摄取:使用 400G 云互连 (Cloud Interconnect) 和跨云互连 (Cross-Cloud Interconnect):** 通过 4 倍于 100G 云互连 (Cloud Interconnect) 和跨云互连 (Cross-Cloud Interconnect) 的带宽,更快地导入 AI 数据集,并在跨云环境中进行训练,提供从本地或其它云环境到 Google Cloud 的连接。今年晚些时候可用。
- **前所未有的集群规模:** 使用支持高达 30,000 个 GPU 的网络配置构建大规模 AI 服务,非阻塞配置,现在处于预览阶段。
- **零信任 RDMA 安全:** 通过 RDMA 防火墙保护高性能 GPU 和 TPU 流量,具有动态执行策略的零信任网络 (zero-trust networking)。今年晚些时候可用。
- **加速 GPU 到 GPU 通信:** 通过高吞吐、低延迟的 RDMA 网络释放高达 3.2Tbps 的非阻塞 GPU 到 GPU 带宽,现在已全面可用。
“Google Cloud 在我们的 AI 基础设施中发挥关键作用,通过支持我们以规模为用户提供高性能和安全的 AI 体验,同时优化资源利用。” - Xu Ning, Dir of Engineering, AI Platform, Snap, Inc.
AI 推理 (inference) 的复杂性不断增加,尤其是当企业部署多个任务优化模型时,这会带来重大的网络挑战。AI 容量需求的增长会给网络基础设施带来压力,因为高效地将数据路由到分布在不同区域的 GPU 或 TPU 资源需要高带宽和低延迟。此外,生成式 AI (Generative AI) 应用和代理的引入会扩大攻击面,在推理 (inference) 过程中可能导致敏感数据泄露,因此需要强大的 AI 安全和防护措施。为应对这些挑战,我们正在推出 GKE 推理 (inference) 网关,现在处于预览阶段,它提供:
- **针对生成式 AI (Generative AI) 应用的分化性能**,无需高昂的服务成本。新的 [GKE 推理 (inference) 网关 (GKE Inference Gateway)](https://cloud.google.com/kubernetes-engine/docs/concepts/about-gke-inference-gateway) 功能 **可将服务成本降低高达 30%、尾部延迟降低高达 60%、吞吐量提高高达 40%**,相比其它托管和开源 Kubernetes 解决方案(基于内部基准测试)。GKE 推理 (inference) 网关的功能包括基于 Google Jetstream、NVIDIA 和 vLLM 的模型服务器指标的智能负载均衡、动态请求路由,以及高效的动态 LoRA 微调模型。
- **AI 安全和防护**,通过强大的新集成。现在,你可以使用 GKE 推理 (inference) 网关和云负载均衡 (Cloud Load Balancing),结合 Model Armor、NVIDIA NeMo Guardrails 和 Palo Alto Networks AI Runtime Security。这种组合方法利用 [服务扩展 (Service Extensions)](https://cloud.google.com/service-extensions/docs/overview) 为你的 AI 模型提供全面保护,简化平台工程和安全团队的治理。
- **针对 LLM 推理 (inference) 的 Google Cloud 负载均衡优化**,让你利用多个云提供商或本地基础设施的 NVIDIA GPU 容量。
“各行业的企业都在寻求全栈集成基础设施,以安全且经济高效地部署代理式 AI。通过将 NVIDIA 推理 (inference) 软件用于实时可观察性以及 NeMo Guardrails 用于强大安全执行,与 GKE 推理 (inference) 网关集成,NVIDIA 和 Google Cloud 正在提供先进的性能和可靠性提升功能。” - Kari Briski, vice president of generative AI software for Enterprise, NVIDIA
### 可编程的全球前端,用于 Web、媒体和 AI
[跨云网络 (Cross-Cloud Network)](https://cloud.google.com/solutions/cross-cloud-network) 全球前端解决方案可加速和保护最 demanding 的 Web、媒体以及现在的生成式 AI (Generative AI) 应用,无论你的后端托管在哪里,都无需将基础设施暴露在互联网上。今天,我们为现代和生成式 AI (Generative AI) 应用引入新创新:
- **边缘可编程性:使用服务扩展 (Service Extensions):** 通过 WebAssembly (Wasm) 驱动的服务扩展插件解锁边缘的开放可编程性。使用 Rust、C++ 和 Go 的 60 多个插件示例进行自动化、扩展和自定义应用。云负载均衡 (Cloud Load Balancing) 支持现在已全面可用,云 CDN 支持将在今年晚些时候跟进。
- **加速 Web 性能:** 通过云 CDN 的快速缓存失效和 TLS 1.3 0-RTT 的全球规模交付静态和动态内容,提高连接恢复性能。这两个功能现在处于预览阶段。
- **端到端 mTLS 安全:** 通过云负载均衡 (Cloud Load Balancing) 加强安全态势,使用端到端 mTLS 保护从客户端到后端基础设施的数据。客户端到前端 mTLS 去年推出,后端 mTLS 现在处于预览阶段。
“服务扩展 (Service Extensions) 插件使我们能够通过轻松在请求/响应路径中运行自定义代码来自定义 Web 服务。基于像 WebAssembly 这样的开放标准,并提供大量现成示例的边缘可编程解决方案,让我们的开发人员能够快速满足业务自定义需求。” - Justin Reid, Principal Engineer, Shopify
### 服务中心网络简化开发
无论你是在构建前沿生成式 AI (Generative AI) 应用还是现代化现有系统,服务中心架构都是快速迭代的关键。作为服务中心架构的先驱,我们正在帮助 NetOps、DevOps、SecOps 和开发团队简化服务部署和管理。通过抽象底层网络和安全层面的复杂性,我们让开发人员能够快速部署、更新和保护跨多个应用的服务。今天,我们正在推出增强的服务中心网络中的自动化、安全和规模创新:
- **简化的服务发现和管理。** App Hub 集成通过自动化服务发现和目录简化生产者-消费者互动。服务健康(今年晚些时候推出)可实现弹性全球服务,支持网络驱动的跨区域故障转移。
- **简化的多网络、多服务、多计算部署。** 在 2025 年晚些时候,你可以使用 [私有服务连接 (Private Service Connect)](https://cloud.google.com/vpc/docs/private-service-connect) 在单个 GKE 集群中发布多个服务,使其从非对等 GKE 集群、Cloud Run 或服务网格原生访问。
“我们的 Google 合作使我们能够简化服务发现,并帮助开发人员更快、更高效地迭代。” - Jonathan Perry, Partner, Engineering, Goldman Sachs
### 保护现代和生成式 AI 应用免受演变攻击
我们目睹了复杂攻击的激增:太比特级 DDoS、用于数据外泄的 DNS 隧道,以及规避传统防御的 AI 驱动威胁。这些网络风险要求在网络安全方法上进行根本性转变,并强调需要超越传统边界防御的先进网络安全能力。今天,我们宣布强大的网络安全增强功能,为你的分布式多云应用和面向互联网的服务提供全面保护。
我们的策略有三个核心支柱:

## **保护工作负载:全球规模 DDoS 保护,提供高达 24 倍的威胁效能**
保护你的分布式应用和面向互联网的服务免受关键网络攻击向量的侵害至关重要。今天,我们引入几个关键增强功能:
- **DNS Armor:** DNS 流量通常缺乏足够的监控,使其成为数据外泄的首要目标。攻击者利用这一盲点,通过 DNS 隧道、域名生成算法 (DGA) 和其它复杂技术绕过传统安全控制。由 Infoblox Threat Defense 驱动,每天可查看 70 亿 DNS 事件,DNS Armor 检测这些基于 DNS 的数据外泄攻击。今年晚些时候处于预览阶段。
- **增强的安全态势执行:** 使用 **新的分层策略 (Cloud Armor)** 加强全组织一致保护。通过 **新的网络类型** 和 **新的防火墙标签 (Cloud NGFW Hierarchical firewall policies)** 强制细粒度保护,与网络架构无关,本季度处于预览阶段。
- 在 2024 年,我们推出了 Cloud NGFW Enterprise,其效能比其它主要公共云高出高达 24 倍。我们将继续改进 Cloud NGFW,**新增第 7 层域名过滤**,允许防火墙管理员监控和控制仅允许目的地的出站 Web 流量,2025 年晚些时候推出。
“我们使用 Cloud NGFW 和 Cloud Armor 来保护 Google Cloud 中的关键应用和网站。在 Next 上宣布的新网络安全创新将帮助我们改善用户保护并简化网络安全管理。” - Jason Jones, Sr. Director, Security Engineering, UKG
## **保护数据:引入内联网络 DLP**
在当今数据驱动的世界中,企业知识产权是最宝贵的资产。但确保其安全和合规可能很复杂。我们理解需要在静态数据和传输中数据实现强大但简化的数据丢失预防 (DLP)。即将推出的 **内联网络 DLP** 用于安全 Web 代理和应用负载均衡器,通过与第三方解决方案 (Symantec DLP) 的集成 [服务扩展 (Service Extensions)](https://cloud.google.com/service-extensions/docs/overview) 提供 **实时保护** 用于敏感数据在传输中。本季度处于预览阶段,内联网络 DLP 有助于保护关键数据并维护合规性,而不牺牲性能或敏捷性。
## **开放安全生态:第三方安全插入**
我们让你可以选择首选的安全解决方案,根据特定需求定制保护。我们很高兴扩展我们的安全合作伙伴生态系统,进行更深度的集成。最近,我们宣布可以通过 [网络安全集成 (Network Security Integration)](https://cloud.google.com/blog/products/networking/introducing-network-security-integration) 将合作伙伴网络服务或虚拟设备插入 Google Cloud 工作负载,现在已全面可用,这有助于在混合和多云环境中维护一致策略,而无需更改路由策略或网络架构。
此外,为了扩展我们的 Web 和 API 保护生态,我们与 Imperva 合作,将 Imperva 应用安全与云负载均衡 (Cloud Load Balancing) 集成,也通过 [服务扩展 (Service Extensions)](https://cloud.google.com/service-extensions/docs/overview),并在 Google Cloud Marketplace 中可用。
### Cloud WAN:AI 时代的企业骨干网
连接现代业务极其复杂。客户必须处理许多不同的网络和安全架构,并需要在可靠性、应用速度和成本之间做出艰难选择。这可能导致复杂的自定义解决方案,难以管理、削弱安全态势,并且往往无法提供最佳结果。[Cloud WAN](https://cloud.google.com/blog/products/networking/connect-globally-with-cloud-wan-for-the-ai-era),我们最新的 [跨云网络 (Cross-Cloud Network)](https://cloud.google.com/solutions/cross-cloud-network) 解决方案,是一个全托管、可靠且安全的企业骨干网,用于转型企业 WAN 架构并解决这些挑战。
Cloud WAN 提供显著优势:
- Cloud WAN 与使用联机设施的客户管理 WAN 解决方案相比,可节省高达 40% 的总拥有成本 (TCO)¹
- 通过 Google 庞大的骨干网络实现全球覆盖和性能,提供 99.99% 的可靠性
- [跨云网络 (Cross-Cloud Network)](https://cloud.google.com/solutions/cross-cloud-network) 与公共互联网相比,性能提高高达 40%²
- 与主要 SD-WAN 和安全供应商的开放、灵活且紧密集成的生态
更多详情,请阅读完整公告 [here](https://cloud.google.com/blog/products/networking/connect-globally-with-cloud-wan-for-the-ai-era)。
### 一个网络来交付 AI 时代
我们的云网络产品和解决方案让你能够连接、简化、现代化和保护全球范围内的组织。通过这些新创新 — 加上 [新的 Cloud WAN](https://cloud.google.com/blog/products/networking/connect-globally-with-cloud-wan-for-the-ai-era?e=48754805) — 我们继续为你提供适应新技术、服务、应用和位置的灵活性,所有这些都具备 AI 时代所需的敏捷性。
了解更多 Google Cloud Next 2025 公告,你可以观看我们的 [跨云网络 (Cross-Cloud Network) 创新会议](https://cloud.withgoogle.com/next/25/session-library?session=BRK2-029&utm_source=copylink&utm_medium=unpaidsoc&utm_campaign=FY25-Q2-global-EXP106-physicalevent-er-next25-mc&utm_content=reg-is-live-next-homepage-social-share&utm_term=-),并查看许多优秀的网络 [专题会议](https://cloud.withgoogle.com/next/25/session-library?filters=session-type-breakouts,interest-networking#all)。
* * *
*1\. 架构包括 SD-WAN 和第三方防火墙,并将客户管理 WAN(使用多站点联机设施)与由 Google Cloud 管理并托管的 WAN 进行比较。
2\. 在测试中,目标流量的网络延迟比通过公共互联网传输的同一目标流量低超过 40%。*
发布于
- [网络](https://cloud.google.com/blog/products/networking)
- [Google Cloud Next](https://cloud.google.com/blog/topics/google-cloud-next)
<!-- AI_TASK_END: AI全文翻译 -->