超级计算机如何帮助数据中心演变

2015-06-30 |  作者:TechTarget网络 |  来源:论坛

摘要微波炉的发明是源于雷达研究的结果;钢筋混凝土安全槽增加牵引摩擦力以防止受伤,最初是为了减少湿滑跑道上的飞机事故;固态特异纤维材料比钢强五倍,能够帮助NASA的海盗飞船登陆火星,而这种材料之后被用来创造具有超...

微波炉的发明是源于雷达研究的结果;钢筋混凝土安全槽增加牵引摩擦力以防止受伤,最初是为了减少湿滑跑道上的飞机事故;固态特异纤维材料比钢强五倍,能够帮助NASA的海盗飞船登陆火星,而这种材料之后被用来创造具有超长使用寿命的花纹轮胎。上述这些例子都是科学技术在其最初仅仅是作为尖端科学实验,而后被运用于主流应用的典型案例。而超级计算机技术无疑也将以同样的方式进入并影响数据中心。

超级计算机是由什么组成的

今天,绝大多数超级计算机都是庞大的集群服务器,与高性能网络捆绑在一起的;那些经典的Cray向量超级计算机的日子已经一去不复返了。大量并行的大规模模拟的建立,应用程序工作负载被分布在服务器节点,通过共享通信结构传递信息。服务器节点通常配备浮点重CPU(floating-point-heavy CPU)和基于GPU数学的加速器,享有大型主机存储器,但它们本质上仅仅只是Linux服务器。

大多数超级计算机将其存储连接到相同的通信结构用于处理器之间的通信。存储也必须是并行的,方便在失败的情况下定期检查点快速保存仿真状态,以及大型数据集加载。互连因此是一个统一的架构承载管理,计算和存储流量通过一根光纤连接到每个节点。

超级计算机的性能如何最终是由预算决定的。正是出于这个原因,基于商品标准的硬件组件是优选。一个开放的标准被称为InfiniBand(IB)自其推出以来一直占据群集互连领域的主导地位,其具体的规范首先是由一个包括惠普、IBM、英特尔和微软在内的行业协会于1999年发布的。

InfiniBand具有重要的属性,包括极端的可扩展性,低延迟(端到端亚微秒级),高带宽(每端口100Gbps)和硬件卸载,包括一个非常强大的功能,称为RDMA(远程直接内存访问)。RDMA允许数据以线速从一个应用程序的存储器空间流“零拷贝”到驻留在不同的服务器上的另一应用程序上,所有这些都没有操作系统的干预,甚至没有CPU的干预。这种功能加快了数据移动扩展内存的速度,而不仅仅是CPU核心速度(其已然停滞不前)。

这对数据中心而言意味着什么

为了更好的平衡,大型服务器场的设计需要兼顾计算,存储和网络性能。许多因素都揭示了传统的,已经有37年历史的TCP/IP以太网是链接中的薄弱环节:

固态硬盘(SSD)正在稳步取代旋转存储,而不只是在其早期的关键应用,如数据库索引和元数据存储。传统的NAS互连,能够隐藏几十毫秒的旋转磁盘延迟突然被认为是阻碍固态硬盘及微秒级的响应时间。固态硬盘还提供数量级的吞吐量的增加,再次加强旧的互连。

统一线缆改善多系统级度量指标,如资本成本,气流,散热,管理的复杂度和每台主机信道接口的数量,因为他们最小化网络适配器(+关注网络世界),电缆和开关。这些特点使它们非常可取。微型和刀片服务器的外形因素使其每个节点不能独立承担三个独立的接口。由于其耗流量控制和高延迟,TCP/IP以太网与高性能的存储网络的匹配非常糟糕。

因为往往强调东西方向的流量,当前的数据中心工作流程的要求,需要新的结构拓扑。以太网生成树的限制妨碍了高效的实现,如“胖树”以交换机之间聚集的树干为特色。

为覆盖每个芯片上的大量CPU内核,许多核心处理器使用数十亿个晶体管,服务器芯片朝这方面发展的趋势非常强烈。很容易看出,网络能力必须按比例和规模从根本上保持架构的平衡,否则核心将永远是等待网络I/O的状态。

通过虚拟化部署,单台物理机现在可以包含多台虚拟机。这种配置的效果已经进一步加强了每个插座的网络性能要求,推进超级计算机类负载水平。例如,一个运行在千兆以太网的TCP/IP协议栈可能需要高达1GHz的CPU性能;现在,超过20台这样的机器只需要一个单一的节点,甚至许多核心CPU在一款应用程序的一个周期之前都将因OS而饱和。

无论怎么看,InfiniBand都能够轻易地解决这一切挑战,同时也提供了平滑的过渡路径。例如,通过IPoIB,InfiniBand可以以很快的速度承载传统的IP流量,虽然这种能力不会立即公开显示出所有协议的好处,但其提供了一个实现更有效的桥梁,被可以随时间推移而进一步发展。此外,与人们普遍的误解相反,InfiniBand实际上是最具成本效益的协议,如果能够统一部署,一定能大幅降低成本。

InfiniBand的时代到来

显然,更高效的数据中心可以通过一个开放的标准的超级计算机互连来实现。但InfiniBand在所有的原始性能和规模生产部署背后是否有足够的深度?

InfiniBand最初的实现,是由于标准的精确无损流量控制方案,仅限于机架之间很短的链接。这种部署缺乏安全机制,如链路加密,并被仅限在单个子网的拓扑结构。由先进的军事网络所领军,其他的早期采用社区和技术创新已经转移到服务于这些市场,今天的InfiniBand解决方案意味着跨越全球距离的标准光纤基础设施,提供强大的链路加密和多子网分割的手段。早在1999年,InfiniBand的设计是用来分离数据和控制平面,其成为了第一款软件定义的网络(SDN)。这种新技术的采用者们将受益于超级计算机和超级通信空间相对较快的创新。

相关文章