欢迎您光临本站,如有问题请及时联系我们。

专家观察 | 张辉:“智能网络构建高效云计算平台”

由工业和信息化部指导,中国信息通信研究院主办,业界知名组织云计算开源产业联盟(OSCAR)承办的2017全球云计算开源大会于4月19日-20日在北京国家会议中心顺利召开。本文为本届大会嘉宾分享的大会演讲速记内容,敬请浏览。

嘉宾介绍:张辉

公司职务:Mellanox公司亚太区解决方案营销总监

大会演讲速记

非常感谢在座各位和主持人,今天的演讲题目是智能网络高效构建云平台。

我们迈络思是做网络的,我们起家是做高性能计算的InfiniBand高速网络,之后我们以太网也做到了端到端,目前大家在数据中心用的比较多的还是万兆居多。

我们现在做25G及以上的网络是我们绝对领先的技术,在早期40G网络,90%以上40G网络都是我们网络,新的25G、100G也占据了市场的绝大部分份额,甚至下半年我们会出200G以太网,目前可以说在网络方面没有人能超过我们。

其实说到云计算,相信大家都是专家,从最开始做虚拟机一直到现在落地,包括今天这么大会议来讲,相信对广大用户也好,企业也好,都是可接受的,并且在实施中。那么迈络思一个做网络的供应商,我们怎么打造一个高效云平台,这就是我今天要讲的东西。

大家知道做云无论哪个阶段,第一步是做虚拟化,相信大家都体验到虚拟化好处了,但是所有东西都是双刃剑,虚拟化的问题是会带来其他的一些问题,比如性能会不可靠。虚拟化做云技术的时候我们总结了几个问题。

第一是低效的网络协议,比如TCP/IP是比较成熟的协议,起源于广域网,TCP/IP是内核态的协议,对其所有处理要经过CPU做处理,它会有协议转换的消耗,但是在当时那个年代网络速度没有那么快,TCP/IP协议延迟。

如果大家熟悉的话,差不多是在220—250微妙延迟,微妙级延迟对于我们早几年的时候没有感觉,但是在研究或者从今天开始,SSD的普及,高速网络的普及,包括延迟的普及,大概我们会发现慢慢的200多微妙延迟会影响整体效能,为什么?

大家知道现在SSD延迟也在微妙级别了,网络延迟一般也是在微妙,我们的网络是纳秒级别,如果大家发现网络卡在几十微妙的时候,TCP/IP协议在200微妙以上,这时候大家发现真正影响性能的瓶颈就在协议本身,所以TTP协议未来会在高性能环境里面,TCP/IP会变成瓶颈,所以就需要RDMA跑在你的以太网上提高效率。

大家知道在做虚拟化以后,有一个问题是通讯怎么办。从开始从零到一,用虚拟交换机解决从零到一,让它工作了,但是效率怎么样?

你真正部署以后,虚拟交换机会变成你的瓶颈,它的性能没有那么高,会变成瓶颈。SR-IOV就把计算虚拟化和我们网络做了很好的结合,上层虚拟机直接和底层网卡做映射,这样不经过虚拟机和内核,效率相当于访问了我的设备,虚拟化惩罚不到了。

另外大家都知道DPDK是很流行的开发语言包,DPDK初衷也是类似的东西,因为TCP/IP也是制约了系统的性能,我们通过PMD可以更直接,更方便访问我们设备,我们会让上层DPDK访问的时候让效率更高效,这样同样达到裸机的效果。

我们通过DPDK+PMD的结合,可以让效率进一步提升。大家可以看到在40G网络里,我们的链路可以到35.7GB,在云环境里,用了VXLAN卸载以后加上各种技术,到了37.5,同时不需要额外的CPU资源。

这时候大家会想到一个问题,我们一直讲云计算,最重要的就是计算,在没有采用这个技术之前,大家会发现你在封装、解封装甚至协议处理的时候,会消耗你相当大的CPU,我们有一个分享的数据。

我记得去年的时候,有一个厂商提到在万兆环境下,用来做包处理的时候,会消耗CPU30%—40%,在这种情况下,能够用来做计算的就非常有限了。所以用了VXLAN之后,会CPU释放出来,不需要CPU,可以将35%的CPU释放出来,如果没有用VXLAN做的话,CPU会消耗35%,用了VXLAN以后,CPU不再消耗,这也是我们主要的贡献。

还有一个叫ASAP2,ASAP大家比较熟,是尽可能快,我们ASAP2从字面来看我们是可以快到极致,这是我们自己开发新的技术,所谓加速交换包处理。在这个里面我们有几种方式,时间原因我只介绍几个,第一个是ASAP2卸载,我们把上层虚拟机和底层硬件做沟通,所有包处理,所有协议处理,都是通过网卡硬件本身直接做工作,这样效率得到提升。当然还有可以部分来做,比如有控制部分,还是做传统通过内核来控制,真正大量消耗CPU,这些我们都可以进行解决。

另外是DPDK加速的OVS,在我们认为的世界里,相当快的速度了,和ASAP2比,哪个孰高孰低?大家看到在第一个场景是1流,没有用XVLAN,几乎不消耗CPU,还有一种情况是2000流,用VXLAN可以到25MPPS,大家可以看到这两个差距很大,同时CPU消耗没有,但是在DPDK里还是要消耗CPU的,只比之前好一些,但是还是需要四个核。所以我们真正在云计算世界里,让计算做CPU该做的事。

下面看一下怎么加速我们的网络,因为刚才宋老师也提到存储,现在存储是不可避免的话题。所谓的网络三大件,网络本身我们做得很好,同时把CPU也能够释放CPU资源,我们再看存储有什么变化。我们做交换机实际上是这个领域比较成熟,有人说是红海,我觉得不是红海,整个新的架构和新的技术、应用出现,会对网络提出新的要求,这也是一个新的变化。

我们的交换机是从芯片和交换机本身都是我们自己的,和市面上看到绝大多数的交换机,第一个是高带宽到极致,100G,低延迟在200纳秒,还有包括在丢包问题。

我相信大家回去看一下,你们交换机做的时候都有丢包问题,但是我能告诉大家,我们交换机是不丢包的,在存储里面或者在云计算里面是能够提到效率很大的保障。大家知道丢包不是说不能接受,而是说会使你发了包要重新发,意味着对方接收的时候需要重新排列了组合,效率会降低,所以不丢包是最朴素的要求。

刚才提到存储,我们看一下OpenStack存储的加速,还是数据说话,可以看到TCP/IP网络和RDMA加速以后性能有什么变化。

我们可以看到同样网络下,性能会有6倍提升,其实6倍不止。为什么?如果你的PCI足够高的话,比如PCI3x16、32性能会进一步提升。另外在Ceph,大家看到用RDMA的时候性能也有三倍的提升。

另外在EC里,它会消耗CPU,我们会把消耗CPU做运算的放在网卡里做,同时在分布式架构里让你的性能得到提升,成本降低的同时保证安全性。

前面讲了对网络的加速,对存储的加速,对CPU释放,再讲一下落地的东西,我相信所有的东西,落地一定要有易用性或者开放性。

我们网络数据中心是开放网络,大家可以看到我们提供的文件,也可以在上面跑不同的操作系统,利用我们高性能,低带宽网络运行在这个环境里。

这里面有几个抓图,这是我们的界面,因为我们和OpenStack结合已经很成熟了,所以我也不讲太多了。

最后有几个案例,大家知道微软从2012的时候就开始支持我们的RoCE了,利用RoCE在同样的硬件情况下,性能和带宽有两倍提升。

还有在腾讯,我相信关注云的应该在春节前,腾讯发布了新闻,在整个云计算排序里面,腾讯拿了第一名,第一个是比去年成绩提高了5.8倍,单节点性能提高33倍,在腾讯云里面有腾讯领头的,也有我们和IBM帮助腾讯的,这里面用的就是我们100G的网络。


来源:本文由E8运维原创撰写,欢迎分享本文,转载请保留出处和链接!