您的位置:主页 > 公告动态 > 正大动态 > 正大动态

CPU GPU异构盘算成芯片巨头新宠_期货开户,香港期

近年来,随着AI应用的快速生长,引发一场算力革命,异构盘算也站在风口浪尖。

异构盘算主要是指使用差异类型指令集和系统架构的盘算单元组成系统的盘算方式。常见的盘算单元种别包罗CPU、GPU、DSP、ASIC、FPGA等。现在“CPU GPU”以及“CPU FPGA”都是受业界关注的异构盘算平台。

克日,英特尔宣布将在未来一年半内作废多款服务器GPU产物的宣布设计,其中包罗HPC级的Rialto Bridge GPU,以全力开发基于Falcon Shores的夹杂芯片。英特尔新一代Falcon Shores 专为超级盘算应用而设计,将CPU和GPU手艺连系到一个芯片封装中,届时将作为纯GPU架构面世。

值得注重的是,AMD 的Instinct MI300和英伟达的Grace Hopper超级芯片也是接纳“CPU GPU”的异构形式。

01 CPU与GPU的区别

CPU即中央处置器(Central Processing Unit),作为盘算机系统的运算和控制焦点,主要认真多义务治理、调剂,具有很强的通用性,是盘算机的焦点向导部件,好比人的大脑。不外其盘算能力并不强,更善于逻辑控制。

GPU即图形处置器(Graphics Processing Unit),接纳数目众多的盘算单元和超长的流水线,善于举行图像处置、并行盘算。对于庞大的单个盘算义务来说,CPU 的执行效率更高,通用性更强;对于图形图像这种矩阵式多像素点的简朴盘算,更适适用 GPU 来处置。AI 领域中用于图像识其余深度学习、用于决媾和推理的机械学习以及超级盘算都需要大规模的并行盘算,因此更适合接纳 GPU 架构。

CPU和GPU另有一个很大的区别就是:CPU可单独作用,处置庞大的逻辑运算和差其余数据类型,但当需要处置大量类型统一的数据时,则可挪用GPU举行并行盘算。但GPU无法单独事情,必须由CPU举行控制挪用才气事情。

02 CPU GPU架构的优势及应用

当CPU和GPU协同事情时,由于 CPU 包罗几个专为串行处置而优化的焦点,而 GPU 则由数以千计更小、更节能的焦点组成,这些焦点专为提供强劲的并行运算性能而设计。程序的串行部门在 CPU 上运行,而并行部门则在 GPU上运行。GPU 已经生长到成熟阶段,可轻松执行现实生涯中的种种应用程序,而且程序运行速率已远远跨越使用多核系统时的情形。因此,CPU和GPU的连系恰好可以解决深度学习模子训练在CPU上耗时长的问题,提升深度学习模子的训练效率。

随着CPU与GPU的连系,其相较于单独CPU与GPU的应用场景也不停拓宽。

*,CPU GPU架构适用于处置高性能盘算。随同着高性能盘算类应用的生长,驱动算力需求不停攀升,但现在单一盘算类型和架构的处置器已经无法处置更庞大、更多样的数据。数据中央若何在增强算力和性能的同时,具备应对多类型义务的处置能力,成为全球性的手艺难题。CPU GPU的异构并行盘算架构作为高性能盘算的一种主流解决方案,受到普遍关注。

第二,CPU GPU架构适用于处置数据中央发生的海量数据。数据爆炸时代来临,使用单一架构来处置数据的时代已经由去。好比:小我私人互联网用户天天发生约1GB数据,智能汽车天天约50GB,智能医院天天约3TB数据,智慧都会天天约50PB数据。数据的数目和多样性以及数据处置的地址、时间和方式也在迅速转变。无论事情义务是在边缘照样在云中,不管是人工智能事情义务照样存储事情义务,都需要有准确的架构和软件来充实行使这些特点。

第三,CPU GPU架构可以共享内存空间,消除冗余内存副原本改善问题。在此前的手艺中,虽然GPU和CPU已整合到统一个芯片上,然则芯片在运算时要定位内存的位置仍然得经由繁杂的步骤,这是由于CPU和GPU的内存池仍然是自力运作。为领会决两者内存池自力的运算问题,当CPU程式需要在GPU上举行部门运算时,CPU都必须从CPU的内存上复制所有的资推测GPU的内存上,而当GPU上的运算完成时,这些资料还得再复制回到CPU内存上。然而,将CPU与GPU放入统一架构,就能够消除冗余内存副原本改善问题,处置器不再需要将数据复制到自己的专用内存池来接见/更改该数据。统一内存池还意味着不需要第二个内存芯片池,即毗邻到CPU的DRAM。

因此,通过CPU GPU异构并行盘算架构组成的服务器,正成为服务器市场中的一匹黑马。现在已有多家芯片厂商最先跟进。

03 芯片巨头的香饽饽?

英特尔的Falcon Shores

英特尔的Falcon Shores XPU专为超级盘算应用而设计,其将CPU和GPU合并到一个夹杂匹配芯片包中。Falcon Shores代表了英特尔异构架构设计的延续,其最终目的是每瓦性能提高5倍,x86插槽盘算密度提高5倍以及现有服务器芯片的内存容量和带宽提高5倍。英特尔的高性能盘算CPU和GPU蹊径图与Falcon Shores汇合,解释这些芯片将在未来同时施展这两个作用。

英特尔超级盘算团体副总裁兼总司理杰夫·麦克维(Jeff McVeigh)说,延迟推出的Falcon Shores将在2025年首次推出GPU内核,但尚未解释何时将CPU内核集成到设计中。因此,英特尔以HPC为中央的设计将落伍于竞争对手数年。

英伟达的Grace Hopper超级芯片

2021年,英伟达推出解决HPC和大规模人工智能应用程序的Grace Hopper超级芯片。这是一款完全专为大规模 AI和高性能盘算应用打造的突破性加速 CPU。它通过英伟达 NVLink-C2C 手艺将 Grace 和 Hopper 架构相连系,为加速 AI 和 HPC 应用提供 CPU GPU 相连系的一致内存模子。

英伟达官方示意,使用NVLink-C2C互连,Grace CPU将数据传输到Hopper GPU的速率比传统CPU快15倍。另外,接纳CPU GPU的Grace Hopper焦点数减半,LPDDR5X内存也只有512GB,但多了显卡的80GB HBM3内存,总带宽可达3.5TB/s,价值是功耗1000W,每个机架容纳42个节点。

英伟达Grace Hopper超级芯片设计于2023年上半年推出。

AMD的 Instinct MI300

在克日的 CES 2023 展会上,AMD 披露了面向下一代数据中央的 APU 加速卡产物 Instinct MI300。这颗芯片接纳多芯片、多IP整合封装设计,5nm先进制造工艺,晶体管数目多达1460亿个。它同时集成CDNA3架构的GPU单元(详细焦点数目未公然)、Zen4架构的24个CPU焦点、大容量的Infinity Cache无限缓存,另有8192-bit位宽、128GB容量的HBM3高带宽内存。

在手艺方面,MI300支持第四代Infinity Fabric总线、CXL 3.0总线、统一内存架构、新的数学盘算花样,号称AI性能比上代提升多达8倍,可知足百亿亿次盘算需求。

AMD CEO苏姿丰克日确认,Instinct MI300将在今年下半年正式推出。

英特尔的Falcon Shores XPU是与英伟达的Grace Hopper 超级芯片和AMD Instinct MI300数据中央APU竞争的要害。英伟达的Grace和AMD的MI300都将于今年推出。值得注重的是,三家均选择了Chiplet手艺。

04 未来押注超异构盘算

关于异构盘算,英特尔中国研究院院长宋继强曾示意:“在2023年,人人已经完全接受了要通过异构盘算解决未来系统的设计和优化问题。在2020年的时刻,市场还在讨论异构集成是怎么一回事。而在2023年,人人都市基于功效的有用性、设计的难易水平、成本等方面的考量,自觉接纳异构盘算的方式。”

关于对当下的算力演进偏向的新判断,宋继强还提到:“传统异构盘算并不能知足现在盘算的要求。而“超异构盘算”,已逐渐成为业界思索的一个趋势”。

从现实来看,英特尔也确实正在押注“超异构盘算”这条蹊径。

英特尔提出的“超异构盘算”看法,在一定水平上可以明白为通过封装手艺所实现的模块级系统集成,即通过先进封装手艺将多个Chiplet装配到一个封装模块当中,既简化了SOC的庞大手艺,加倍天真,又阻止了PCB板级集成的性能和功耗瓶颈。

英特尔的“超异构盘算”蹊径以“Foveros”3D封装手艺为基础。相比SiP只能实现逻辑芯片与内存的集成,“Foveros”可以在逻辑芯片与逻辑芯片之间实现真正的三维集成,使得芯片面积更小,同时保证芯片间的带宽更大、速率更快、功耗更低。

不外,英特尔的“超异构盘算”的创新之处并不仅局限于3D封装这一个层面。事实上,在制程、架构、内存、互连、平安、软件等多个层面均具有*优势。“超异构盘算”的实现是确立在整合其多层面手艺优势基础上的。

除了英特尔之外,英伟达也已经在执行层面周全行动。英伟达在云、网、边、端等庞大盘算场景,基本上都有重量级的产物和异常清晰的迭代蹊径图。