世界领先的高性能计算、数据中心端到端互连方案提供商Mellanox今日宣布,发布全球首个 200Gb/s 数据中心网络互连解决方案。Mellanox ConnectX -6 适配器、Quantum 交换机、 LinkX 线缆和收发器一同构成了面向新一代高性能计算、机器学习、大数据、云、web 2.0 和存储平台的完整 200Gb/s HDR InfiniBand 网络互连基础设施。200Gb/s HDR InfiniBand 解决方案进一步巩固了Mellanox的市场领先地位,同时使客户和用户能充分利用基于开放标准的技术,最大程度的提升应用程序的性能和可扩展性,同时极大降低数据中心的总体拥有成本。Mellanox 200Gb/s HDR 解决方案将在 2017 年大规模出货。
“对于商业智能、国土安全、技术创新、新研究等领域来说,如果能有效利用呈指数级增长的数据,并通过数据分析来获得实时的竞争优势,具有至关重要的意义。在当今的系统设计中,网络是最为关键的因素,它能加速很多要求苛刻的应用并进一步推动变革,”Mellanox公司总裁兼CEO Eyal Waldman表示,“Mellanox 非常荣幸地推出全新的 200Gb/s HDR InfiniBand 网络解决方案;该方案具有全球最高的网络带宽和智能互连能力,将进一步推动我们的数字生活。HDR InfiniBand 创造了全新的性能和可扩展性记录,同时满足了客户和合作伙伴对新一代互连产品的需求。”
“十年前,Intersect360 Research 开始对 HPC(高性能计算)市场开展商业调查,InfiniBand 技术当时刚刚成为高性能计算集群的互连方案首选,而 Mellanox 正是InfiniBand网络的领导厂商,”Intersect360 Research 首席执行官 Addison Snell 指出,“InfiniBand 逐渐发展壮大,如今也成为了HPC系统里高性能存储互连方案的首选。当前,类似数据分析和机器学习等高数据吞吐的应用正在迅速扩展,对高带宽、低延迟互连的需求也扩大到了更广阔的市场。HDR InfiniBand 网络是一次巨大的飞跃,Mellanox 正卓有成效地推动其成为现实。”
“我们当前和未来的主要方向,是努力解决科学和数据分析问题。这要求计算节点、存储和分析系统之间具备非常高的带宽,从而构成单一的系统环境。”美国橡树岭国家实验室OLCF项目总监 Arthur Bland 表示,“借助 HDR InfiniBand 网络,我们将拥有开放的解决方案,并能够以非常高的带宽连接我们的所有系统。”
“不论是现在还是将来,系统中的数据传送都是至关重要的因素。在规划新一代的大规模HPC系统乃至规划未来的百亿亿次性能的系统时,开放网络技术都是我们的主要考量因素之一。” Livermore Computing 首席技术官 Bronis de Supinski 说道, “HDR InfiniBand 解决方案是这一技术领域的重要进步。”
美国洛斯阿拉莫斯国家实验室 HPC研发SSI小组组长Parks Fields表示:“我们很高兴看到Mellanox公司在高速互连领域始终保持着行业领先地位,HDR InfiniBand的问世无疑将更好地为我们的应用提供所需的性能。”
业界领袖、客户及合作伙伴引言:
"要想最大限度的发挥HPC、机器学习、媒体创作或大数据应用的性能,高速存储就是不可忽略的关键因素。"DataDirect Networks公司的产品总监Kurt Kuckein表示,“结合Mellanox最新的HDR 200Gb/s技术,DDN能够将高性能存储解决方案推升到一个新的高度,从而帮助客户最大化的释放计算性能,应对实时的工作负载。”
“不论是高性能计算、大数据应用还是云计算环境,Dell EMC的HPC用户能够从我们和Mellanox的联合解决方案中获得极致的性能、超高的可扩展性以及领先于同类市场的优势。”Dell EMC高性能计算和方案验证部高级副总裁Jim Ganthier先生说, “我们与Mellanox的联合创新基于开放标准,并能够帮助客户加速他们的应用从而更快、更早的做出新的发现。”
“网络是高性能集群的关键。”惠普企业HPC解决方案和阿波罗系列产品部副总裁Scott Misage表示,“Mellanox 200Gb HDR的产品能帮助我们共同的客户充分利用惠普阿波罗HPC解决方案的可扩展性,最大限度地提升高性能计算负载的应用效率。”
“Mellanox 不仅致力于创新网络解决方案,更积极支持提升数据中心的投资回报率。”华为服务器产品线总裁邱隆表示,“此次推出全新的 200Gb/s HDR 互连方案能够极大的提升高性能计算和其他多种要求苛刻的应用的性能。”
“Mellanox 将通过 200Gb HDR InfiniBand 互连方案,提升 OpenPOWER 生态系统的网络带宽、延迟和可编程性,我们非常期待将 HDR InfiniBand 融入 OpenPOWER 技术体系当中。”IBM Systems 副总裁兼 IBM 院士、系统与技术集团首席技术官 Brad McCredie 表示,“OpenPOWER 生态系统通过协作创新包揽了最优秀的新技术,我们对于 ConnectX-6 和 Quantum 交换机接下来的发挥拭目以待。”
“Mellanox 借助 InfiniBand 解决方案在数据中心网络领域取得了巨大的成就,达到了每秒传输 2 亿条信息的世界一流性能。”浪潮集团胡雷钧表示,“此外,新的 Mellanox 200Gb/s HDR InfiniBand Quantum 交换机是目前世界上最快、最灵活的交换机,延迟仅有 90ns(纳秒)。”
“人工智能等 HPC 工作负载要求非常严苛,这使得系统必须具备极高的带宽来实现海量的数据处理。HDR InfiniBand 网络将成为现代数据中心里越来越重要的一项技术。Mellanox 智能互连解决方案为我们的各类 HPC 解决方案奠定了基础;我们非常高兴能用HDR网络来帮助各类HPC客户解决极高的工作负载压力。”联想数据中心业务集团高性能计算执行总监 Scott Tease 表示。
“ConnectX-6 网卡能使 NVIDIA GPU 的带宽得到显著提升,从而更好地打造面向 HPC、深度学习和数据中心等应用的解决方案,”NVIDIA 高速计算业务集团副总裁 Ian Buck 博士表示,“借助对 NVIDIA GPUDirect 技术的集成支持,Mellanox 互连解决方案和 NVIDIA 高性能 Tesla GPU 将实现 GPU 集群之间的直接数据传输,这对于在高度多元化的市场应对复杂且计算密集型的挑战具有重要意义。”
希捷公司云系统及硅光业务副总裁暨总经理Ken Claffey表示:“我们的用户一直在追寻科技前沿,最新的IT基础设施能够赋予他们更大的竞争优势。希捷将全面支持Mellanox的HDR 200Gb/s解决方案,从而更好地为用户的网络密集型应用(如流媒体和计算集群)提供无与伦比的存储平台。”
“我们非常高兴看到 Mellanox 最新的网络解决方案与上一代相比速度加倍。”中科曙光技术高级副总裁沙超群表示,“这些新解决方案不仅适用于InfiniBand 和以太网,还使客户能灵活运用 Mellanox 创新的Multi-Host技术。”
ConnectX-6 适配器包含200Gb/s单/双端口两种规格,与上一代产品相比数据速率翻番。它还拥有Mellanox 的VPI技术(Virtual Protocol Interconnect ),可以同时支持InfiniBand 和以太网标准协议,并能够兼容如今主流的 CPU 平台——包括x86、GPU、POWER、ARM、FPGA 等等。ConnectX-6网卡拥有高达每秒传输 2 亿条消息的顶尖性能、0.6usec(微秒)的超低延迟,并且支持 MPI-Direct、RDMA、GPU-Direct、SR-IOV、数据加密等网络内计算引擎(in-network computing)以及创新的 Multi-Host 技术,ConnectX-6能构建出业界最高效的计算和存储平台。
Mellanox 200Gb/s HDR InfiniBand Quantum 交换机是全球最快的交换机,支持 40 端口的 200Gb/s InfiniBand 或 80 端口的 100Gb/s InfiniBand 连接,可实现 16Tb/s 的总交换处理能力,且延迟极低,仅有 90ns(纳秒)。Mellanox Quantum 交换机拥有市场上可扩展性最强的交换芯片,提升了对网络内计算(in-network computing)技术的支持,并经过优化且灵活的路由引擎。Mellanox Quantum交换芯片将成为多种交换机系统的基础,例如用于架顶解决方案的 40 端口 200Gb/s 或 80 端口 100Gb/s,以及 800 端口 200Gb/s 和 1600 端口 100Gb/s 模块化交换机系统。
为了打造完整的端到端 200Gb/s InfiniBand 基础架构,Mellanox还将发布最新的LinkX 解决方案,为用户提供一系列不同长度的 200Gb/s 铜缆及硅光线缆。
本文转自d1net(转载)