AMD揭露HSA运算架构细节

最新更新时间:2013-05-13来源: 集微网 手机看文章 扫描二维码
随时随地手机看文章

AMD发表新运算架构技术hUMA,可让CPU与GPU共享同一记忆体空间,解决过去的资料重覆拷贝问题

晶片制造商AMD发表HSA运算架构的新技术:hUMA,来解决CPU与GPU间的重覆资料拷贝问题。

2012年,AMD就携手ARM、高通、三星、联发科等厂商成立HSA(Heterogeneous Systems Architecture)基金会,希望拓展CPU和GPU协同运算的新架构,并辅助此架构发展的异质运算新软体开发环境。

日前,AMD进一步公开说明此运算架构的新技术:hUMA(heterogeneous Uniform Memory Access)。透过hUMA,CPU和GPU能共享同一个记忆体空间,并且CPU能够直接存取GPU的记忆体位址,不必像过去得花工夫再将GPU的运算资料复写到CPU上。

过去CPU和GPU的记忆体池仍独立运作
换句话说,以过去技术发展的状态,即便GPU和CPU已整合到同一个晶片上(GPGPU技术),晶片在运算时要定位记忆体的位置仍然得经过繁杂的步骤,这是因为CPU和GPU的记忆体池仍然是独立运作。

先前为了解决两者记忆体池独立的运算问题,当CPU程式需要在GPU上进行部分运算时,CPU都必须从CPU的记忆体上复制所有的资料到GPU的记忆体上,而当GPU上的运算完成时,这些资料还得再复制回到CPU记忆体上。这些步骤都会不断耗费时间以及程式处理的效能。

此外,复制资料的步骤也代表着,当CPU正在运作时,GPU就无法同时运算相同的资料。而当不同程式语言间的关键术语(exact terminology)变化时,CPU资料架构会启动指标器(pointers)来指示相关的资料,但是,因为CPU的指标器是指示到CPU记忆体上的位置,而GPU的记忆体又是另一个独立架构,因此这样的架构若复制到GPU上运作,反而会产生位置错置的问题。

而hUMA技术,就是来解决两者记忆体独立的问题。

hUMA能让GPU直接存取CPU的记忆体位置
hUMA像个连贯快取的系统,让CPU和GPU能共享同一个记忆体空间,让CPU和GPU在记忆体上看到的资料都能维持一致,如果其中一方上的资料改变,即便旧资料经过快取,另一方还是能看到经改变的资料。换句话说,hUMA能让GPU直接存取CPU的记忆体位置,当CPU在读写资料时,GPU也能同时读写资料。

此外,hUMA也能用在CPU的需要配置虚拟记忆体(demand-paged virtual memory)上。当GPU要存取写在磁碟上的位置时,CPU就能让作业系统去寻找,并加载相关的资料进记忆体中。

第一款支援hUMA的产品将会是AMD的Kaveri APU,预计今年下半年上市。根据AMD表示,hUMA将会支援C++和Java等开发语言。

huMA概念

编辑:陈盛锋 引用地址:AMD揭露HSA运算架构细节

上一篇:AMD推出首款3核心处理器
下一篇:联发科四核MT6589T芯片跑分首曝光 击败One X

小广播
最新半导体设计/制造文章
换一换 更多 相关热搜器件

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 市场动态 半导体生产 材料技术 封装测试 工艺设备 光伏产业 平板显示 EDA与IP 电子制造 视频教程

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved