| |
NVIDIA高速GPU互联技术 铺平百亿亿次级计算的道路 4/3/2014 | |
(点击放大) NVIDIA近日宣布,该公司计划将名为 NVIDIA NVLink的高速互连技术集成到其未来的GPU中,让GPU与CPU之间共享数据的速度能够比当今速度快5 - 12倍。 这将消除长期以来的瓶颈,有助于铺平新一代百亿亿次级(Exascale)超级计算机的道路,这种超级计算机比当今最强大的系统还要快50-100倍。 NVIDIA将把NVLink技术添加到其Pascal GPU架构当中,该架构将承接今年全新的NVIDIA Maxwell计算架构,预计将于2016 年推出。 这一全新的互联技术是与IBM合作开发的,IBM 正在将该技术融入到其未来版本的 POWER CPU 当中。 NVIDIA GPU工程高级副总裁Brian Kelleher表示: “NVLink技术通过大幅提升CPU与GPU之间的数据传输速度,最大限度缩短了GPU等待数据处理的时间,从而释放了GPU的全部潜能。” IBM 副总裁兼 IBM 院士 Bradley McCredie 表示: “NVLink 让CPU与GPU之间能够快速交换数据,从而提升了整个计算系统的数据吞吐量,克服了当今加速计算的一大瓶颈。NVLink 让开发者能够更轻松地修改高性能与数据分析应用,以便充分利用加速的 CPU-GPU 系统。 我们认为,该技术标志着我们对 OpenPOWER 生态系统又做出了一大贡献。” 由于 NVLink 技术能够将 IBM POWER CPU 与 NVIDIA Tesla GPU 紧密结合,POWER 数据中心生态系统将能够在各种各样的应用程序上充分利用GPU加速,例如高性能计算、数据分析以及机器学习等应用。 与 PCI Express 3.0 相比之下的优势 当今的 GPU 通过 PCI Express (PCIe) 接口连接至 x86 CPU。PCIe 限制了 GPU 存取 CPU 系统内存的能力,比一般的 CPU 内存系统慢 4-5 倍。 IBM POWER CPU的带宽高于 x86 CPU,因此在 GPU 与 IBM POWER CPU 之间,PCIe 成为了更加显著的瓶颈。 由于 NVLink 接口可与一般 CPU 内存系统的带宽相匹配,因而让 GPU 能够以全带宽的速度存取 CPU 内存。 这一高带宽互联技术将大幅提高加速软件应用的性能。 GPU 的显存速度快但容量小,CPU 内存速度慢但容量大。因为内存系统的差异,加速的计算应用一般先把数据从网络或磁盘移至 CPU 内存,然后再把数据复制到 GPU 显存,数据才可以被 GPU 处理。 凭借 NVLink,数据在 CPU 内存与 GPU 显存之间的移动速度得到了大幅提升,从而让 GPU 加速的应用能够大幅提升运行速度。 统一内存特性 更快的数据移动加上名为统一内存的另一大特性,将简化GPU加速器的编程。 统一内存让程序员能够将CPU内存和 GPU 显存视为一个内存块。 程序员可以操作数据,无需担心数据存在于 CPU 内存还是 GPU 显存当中。 虽然将来的 NVIDIA GPU 会继续支持 PCIe,但是 NVLink 技术将被用于连接GPU与支持 NVLink 技术的CPU,另外还将用于在多颗 GPU 之间直接提供高带宽连接。 此外,尽管拥有极高的带宽,NVLink 却在每比特数据的传输上比 PCIe 节能得多。 NVIDIA 现已设计了一个模块来容纳 Pascal 架构的GPU与NVLink。这一全新的GPU模块仅为当今标准 PCIe 显卡尺寸的三分之一。Pascal 模块底部的接口使其能够插入到主板当中,从而改善了系统设计、提升了信号完整性。 NVLink 高速互连技术将成就紧密结合的系统,这类系统为人们呈现了一条通往超节能可扩展百亿亿次级超级计算机的道路。百亿亿次级超级计算机的运行速度为 1,000 Petaflops (每秒 1 x 1018 次浮点运算),比当今最快的系统还要快50 - 100倍。 | |
NVIDIA(英伟达)公司 (点击访问) 电话:86-010- 地址:加利福尼亚州圣克拉拉市 | |
电脑版 | 客户端 | 关于我们 |
佳工机电网 - 机电行业首选网站 |