监控安装 ERP

系统集成论坛

 找回密码
 注册通行证

QQ登录

只需一步,快速开始

路由器交换机防火墙系统集成商城 优质产品采购平台
查看: 1947|回复: 0
打印 上一主题 下一主题

Mellanox的infiniband网卡对GPU数据传输优化

[复制链接]

0

主题

4

帖子

27

积分

实习生

跳转到指定楼层
1
发表于 2011-9-29 11:00:00 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
华为金牌代理
对GPU数据传输优化
由于目前高性能计算中普遍采用GPU做并行计算单元,因此Mellanox也优化了GPU的数据传输逻辑。这里简单说说新传输方式与旧方式的区别(如下图):


本图体现了GPU计算过程中数据是如何传递的:CPU从内存中读取需要GPU计算的原始数据,传递给北桥芯片的PCI-E控制器,北桥芯片将数据传给GPU,GPU将其存入缓存,计算的结果也存入GPU缓存(注意这一过程是不断进行的,动态的);计算结果再从GPU缓存流经GPU传回给北桥控制器,北桥传回CPU,CPU将之存入内存。

如果说以上过程足够繁琐,效率很低的话。那么来看看GPU计算好的结果是如何传输的——CPU从内存里重新读取GPU计算的结果,将需要传输的部分再存入内存中网络模块读取的指定区域——infiniband网卡通过CPU再读取相关信息传出去。因此可以说,GPU计算时的数据传输是最大瓶颈。

Mellanox的解决方案很简单,在不改变现有IT架构的情况下——意即原先那套计算流程不变。变化只有一点点:GPU计算结果在存储到内存之后,直接被infiniband读取传输走,减少了再次通过CPU读取转存的步骤。从而降低了数据传输的时延——这一点点的改进使得时延降低30%,消除了数据在infiniband和GPU之间的拷贝。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?注册通行证

x
您需要登录后才可以回帖 登录 | 注册通行证

本版积分规则

联系我们| 手机版|系统集成论坛 ( 京ICP备11008917号 )

GMT+8, 2024-11-26 19:59 , Processed in 0.094181 second(s), 25 queries .

系统集成论坛

BBS.XTJC.COM

快速回复 返回顶部 返回列表