进军百亿亿次级!NVLink高速GPU互联技术讲解
[ 发布日期:2016-3-30 来源:猫头鹰互动科技 浏览次数:3870 ]
前不久,美国能源部公布计划,将采用IBM POWER处理器以及NVIDIA Tesla加速GPU、NVLink高速GPU互联技术打造两台世界最快的超级计算机,让人类距离百亿亿次级计算目标更近一步。
借助Tesla GPU加速传统应用,以其数以千计运算核心带来的强大并行计算性能大幅提升工作效率,已是家喻户晓的事情。然而,NVLink到底是什么?它究竟能为HPC乃至超级计算机带来哪些变革?在此给大家解答。
早在今年年初,我们在GPU 技术大会上公布了这一激动人心的全新技术,即NVLink,它可以将GPU与CPU之间共享数据的速度提升5到12倍,借此释放GPU的全部潜能,并最终打造比以往任何一台超级计算机都要快的全新系统。
与 PCI Express 3.0 相比之下的优势
通常,GPU需要通过PCI Express(PCI-E)接口连接至x86 CPU。但是,PCI-E限制了GPU存取CPU系统内存的能力,它比一般的CPU内存速度慢4到5倍。而IBM POWER CPU的带宽要高于x86 CPU,因此在GPU与IBM POWER CPU相连时,PCI-E带来的限制会更加明显。由于NVLink接口可与一般CPU内存系统的带宽相匹配,因此让GPU能够以全带宽的速度存取CPU内存。
这一高带宽互联技术将大幅提高加速软件应用的性能。GPU的显存速度快但容量小,CPU内存速度慢但容量大。因为内存系统的差异,加速的计算应用一般先把数据从网络或磁盘移至CPU内存,然后再把数据复制到GPU显存,数据才可以被GPU处理。借助NVLink技术,数据在CPU内存与GPU显存之间的移动速度得到了大幅提升,从而让GPU处理加速应用的速度也得到相应改善。
统一内存特性
除了更快的数据移动速度,NVLink还将带来统一内存的另一大特性。它可以让程序员将CPU内存与GPU显存视为一个内存块,而无需考虑数据是存储在CPU内存还是GPU显存当中,简化GPU加速器的编程。
未来NVIDIA GPU还将会继续对PCI-E提供支持,同时,NVLink也将被用于连接GPU与支持该技术的CPU,并在多颗GPU之间直接建立高速连接,而其功耗却比PCI-E低得多。
NVLink高速互连技术将成就紧密结合的系统,并让人们在通往百亿亿次级超级计算更进一步。
www.nvidia.cn www.leadtek.com www.autodesk.com.cn www.adobe.com.cn