<!-- AI_TASK_START: AI标题翻译 -->
[新产品/新功能] AWS EC2 实例现已支持 ENA 队列分配,用于您的网络接口
<!-- AI_TASK_END: AI标题翻译 -->
<!-- AI_TASK_START: AI竞争分析 -->
# 产品功能分析
## 新功能/新产品概述
AWS 宣布了 Elastic Network Adapter (ENA) 队列分配的新功能,允许在 EC2 实例上为每个 **Elastic Network Interface (ENI)** 灵活分配 ENA 队列。该功能的核心目标是优化网络流量管理,通过负载均衡发送和接收数据,提升实例性能。**ENA queues** 是 ENI 的关键组件,以前静态分配,现在支持动态分配,以匹配特定工作负载需求。背景在于,许多客户依赖 EC2 进行网络密集型任务,该功能适用于各种云工作负载,目标用户群包括企业开发者和运维团队,市场定位为所有 AWS 商业区域,提供更精细的资源控制。
## 关键客户价值
- 提供粒度化的网络资源控制,允许客户根据工作负载动态分配 ENA 队列,例如为网络密集型应用分配更多队列,从而优化资源利用率,提升整体实例性能。
- 提高 **vCPU** 利用率,通过高效分布包处理,避免静态分配的资源浪费,与传统配置相比,这增强了灵活性,但可能在复杂环境中增加配置管理需求。
- 支持不同应用场景,如网络密集型和 CPU 密集型工作负载的平衡,实现更高效的网络流量处理,相比以前的静态 ENI 配置,该功能显著改善了可扩展性。
## 关键技术洞察
- **ENA queues** 通过负载均衡机制管理网络流量,工作原理是将发送和接收数据分布到多个队列上,实现包处理跨 **vCPUs** 的高效分配。该技术创新点在于动态从实例的总队列池中分配队列,与静态分配相比,提升了资源利用率。
- 技术对性能的影响包括优化网络吞吐量和减少瓶颈,但需考虑实例类型和大小的限制,可能在高并发场景下面临配置挑战。
- 该功能增强了可用性,支持多种 EC2 实例类型,用户可参考 [EC2 Documentation](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ena-nitro-perf.html) 进行配置。
<!-- AI_TASK_END: AI竞争分析 -->
<!-- AI_TASK_START: AI全文翻译 -->
# AWS EC2 实例现支持 ENA 队列分配功能,用于您的网络接口
**原始链接:** [https://aws.amazon.com/about-aws/whats-new/2025/05/aws-ec2-instances-ena-queue-allocation-network-interfaces/](https://aws.amazon.com/about-aws/whats-new/2025/05/aws-ec2-instances-ena-queue-allocation-network-interfaces/)
**发布时间:** 2025-05-12
**厂商:** AWS
**类型:** WHATSNEW
---
# AWS EC2 实例现支持 ENA 队列分配功能,用于您的网络接口
发布日期:2025 年 5 月 12 日
AWS 宣布为 Elastic Network Adapter (ENA) 推出一个新功能,该功能允许在 EC2 实例上为每个弹性网络接口 (ENI) 灵活分配队列。ENA 队列作为 ENI 的关键组件,通过在可用队列间负载均衡发送和接收的数据,来高效管理网络流量。此网络接口功能通过灵活分配多个发送和接收 ENA 队列,将数据包处理任务高效分布到虚拟 CPU (vCPUs) 上,从而优化网络性能。用户现在可以对网络资源和实例性能进行细粒度控制,从而根据特定工作负载需求调整 ENA 队列分配。
在此公告之前,用户可以为实例配置额外的 ENI,但 ENA 队列是静态分配给每个 ENI,且无法灵活调整。现在,用户可以从实例的总队列池中动态分配 ENA 队列到各个 ENI,总可用队列数量会根据实例类型和大小而异。这种灵活的 ENA 队列分配通过优化资源分布,实现最大化虚拟 CPU (vCPUs) 利用率。网络密集型应用程序可以分配更多队列,而 CPU 密集型应用程序则可以使用较少的队列。
EC2 弹性队列 (EC2 Flexible Queues) 在所有 AWS 商业区域均可用。要了解更多信息以及支持的实例类型,请查看最新的 [EC2 Documentation](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ena-nitro-perf.html) 。
<!-- AI_TASK_END: AI全文翻译 -->