将端到端高性能网络引入科学计算、AI 和云数据中心。
复杂工作负载常常需要高速处理高分辨率仿真、超大型数据集和高度并行算法。随着这种需求日益增长,NVIDIA Quantum InfiniBand 作为可完全卸载的网络计算平台横空出世,不仅实现了性能的巨大飞跃,还能让企业更经济、更省心地实现加速。
NVIDIA® ConnectX® InfiniBand 主机网卡 (HCA) 可提供超低延迟和超高吞吐量,以及创新的 NVIDIA 网络计算引擎,能够满足现代工作负载在性能加速、可扩展性和功能丰富的技术方面的需求。
NVIDIA BlueField® DPU 将强大的计算能力、高速网络和广泛的可编程性集于一身,可为要求苛刻的工作负载提供软件定义、硬件加速的解决方案。从加速 AI 和科学计算,到云原生超级计算,BlueField 带来了新的可能性。
InfiniBand 交换机系统可提供超高的性能和端口密度。通过 NVIDIA SHARP™ 网络计算技术等创新功能以及网络自愈功能、服务质量、增强的虚拟通道映射等高级管理功能,为行业应用、AI 和科学计算等应用显著提升性能。
通过使用 InfiniBand 路由器和 InfiniBand 到以太网网关系统,InfiniBand 系统能够提供超强可扩展性和子网隔离能力。通过使用 InfiniBand 到以太网网关,用户能够以可扩展且高效的方式将 InfiniBand 数据中心连接到以太网基础设施。
NVIDIA MetroX® 远程互连系统可以无缝连接远程 InfiniBand 数据中心、存储和其他 InfiniBand 平台。该系统可将 InfiniBand 的覆盖范围扩展到 40 公里,从而实现远程数据中心之间或数据中心与远程存储设施之间的原生 InfiniBand 连接,帮助实现高可用性及灾难恢复。
LinkX® 线缆和收发器旨在最大限度地提高 HPC 网络的性能和质量,满足HPC网络在 InfiniBand 组件之间建立高带宽、低延迟且高度可靠的连接要求。
NVIDIA SHARP™ 技术可将聚合通信运算卸载到交换机网络,从而减少网络传输的数据量,缩短消息传递接口 (MPI) 操作的时间,并提高数据中心效率。
具有网络自愈功能的 NVIDIA InfiniBand 能克服链路故障,它实现网络恢复的速度是其他基于软件的解决方案的 5000 倍。网络自愈功能利用了内置于新一代 InfiniBand 交换机中的智能功能。
InfiniBand 是成熟高效的高性能互连解决方案,支持久经验证的服务质量功能,包括高级拥塞控制和动态路由,能提供卓越的网络效率。
InfiniBand 提供集中式管理,支持多种网络拓扑,包括 Fat Tree、Hypercubes、多维 Torus 和 Dragonfly+等。路由算法可为适配特定应用通信模式的网络拓扑实现性能优化。
OpenFabrics 联盟的 OFED 软件包由多个高性能 IO 制造商协同开发和测试。NVIDIA MLNX_OFED 是经过 NVIDIA 优化和测试的 OFED 发行版本。
NVIDIA HPC-X® 是完整的 MPI 和 SHMEM/PGAS 软件套件。HPC-X 可充分利用 InfiniBand 网络计算能力和加速引擎来优化科研和行业应用。
借助 NVIDIA Unified Fabric Manager (UFM®) 平台,数据中心管理员能够高效地对 InfiniBand 网络基础设施进行调配、监控、管理和主动故障排查。
NVIDIA Magnum IO™ 利用网络 IO、网络计算、存储和 IO 管理来简化并加速多 GPU、多节点系统的数据搬运、访问和管理。