InfiniBand与以太网适配器厂商Mellanox公司计划利用系统芯片加速存储设备性能,从而经由NVMe架构提供更为出色的外部阵列访问表现。
Mellanox公司CEO Eyal Waldman在其2016年第二季度财报电话会议上谈到了NVMe over Fabrics(简称NVMeF)。该公司的主营项目为InfiniBand与以太网网络设备,同时亦连续第五个季度实现营收增长。
NVMeF是一种将外部NVMe闪存驱动器阵列与服务器对接的方式,其经由网络链路提供与本地闪存驱动器接入方案一致的阵列数据访问能力。目前这类业务供应商包括EMC的DSSD、Mangstor等等。E8公司也将在下个月的闪存记忆体峰会上公布自己的产品。Kaminario与Tegile两家初创企业亦有计划采纳此项技术,而NetApp与Pure Storage则密切关注该技术的最新发展动态。
在本次财报会议上,Waldman表示:"EZchip与Mellanox之间的合并举措已经在今年2月底收购结束后开始进行。今年第二季度,我们公布了双方联合打造的首款产品,即我们的BlueField多核心系统芯片解决方案。BlueField利用连续网状网络配合领先的ConnectX-5网络适配器共同实现了多个ARM核心的互连。其初步目标市场包括存储与网络应用。"
在存储领域,多ARM核心BlueField系统芯片(简称SOC)可作为一组NVMe闪存驱动器的控制器存在,并可通过25/50/100 Gbit每秒以太网连接实现数据访问。
Waldman随后指出:"凭借着嵌入ConnectX-5适配器所带来的加速能力,BlueField提供一套可编程智能网络解决方案。在存储市场当中,BlueFeild能够作为向外扩展NVMe over Fabrics系统中的存储控制器选项。"
他同时表示,BlueField在设计当中支持不断提升的高性能存储网络需求,具体包括由NVMe实现的每秒20 Gbit甚至更高单驱动器IO水平。
Waldman认为NVMeF未来绝对大有可为:"NVMe over Fabrics是一种新的微观趋势,意味着存储市场上的各家客户将利用其替代原有光纤通道设施。我们认为这一趋势将体现在2017年年内BlueField营收的迅猛增长身上。"
BlueField产品将于2017年开始正式投放市场。
Mellanox公司指出:"BlueField系统芯片家族通过连续网状网络、DDR4内存控制器、多个支持10/25/40/50/100 Gbit每秒的以太网/InfiniBand端口以及一套具备多端口且支持EP SR-IOV与RC功能的PCIe Gen 3.0/4.0集成化PCIe交换机共同实现了一组64位ARMv8 A72计算核心的彼此互连。该系统芯片主要面向那些将数据层与控制层服务相结合以实现存储与网络功能的I/O敏感型与计算敏感型应用。"
BlueField参数表中提到了存储加速能力:"存储应用将实现更出色的性能表现与更低延迟水平,同时迎来先进的NVMe over Fabrics与更高传输带宽。其嵌入式PCIe交换机能够帮助客户建立起独立存储设备。标准块与文件访问协议能够封装RoCE以实现更高存储访问性能。而计算与存储网络间的合并则通过多架构网络带来出色的性价比优势。在硬件存储加速基础之上,各系统芯片ARM核心还为各类存储应用带来显著的计算资源助益,具体包括NVMf target、Ceph、iSER、Lustre、iSCSI/TCP载荷、闪存转换层、RAID重构、数据压缩/解压以及重复数据删除等等。"
因此,我们可以设想,未来采用BlueField系统芯片的外部存储阵列将能够把自身转化为一套网络访问延迟杀手。希捷公司的DotHill与ClusterStor阵列将使用这项技术,Nexsan、戴尔Compellent阵列、HDS VSO等方案也很可能做出同样的选择。2017年到2018年很可能成为NVMeF向光纤通道与iSCSI存储阵列发起全面挑战的一年。
原文发布时间为:2016年7月25日