美国推ERI计划来应对中国的崛起,eri

描述

美国国防部(DoE)正积极推动一项22亿美元的“电子产业振兴计划”(ERI)计划,以扶植广泛的电子产业研究。据日前一场ERI高峰会(ERI Summit)的发言人指出,尽管摩尔定律(Moore’s Law)的脚步放缓,但由于各种因应CMOS微缩的替代方案推陈出新,芯片领域仍将持续进展。

为了因应业界面临的两项共同挑战——摩尔定律的式微以及中国的崛起,预计在未来五年内,美国将陆续为ERI的各项研究计划投入价值15亿美元的经费。

美国国防部系统工程副助理部长Kristen Baldwin说:“我们希望调整业界的共同需求,以挑战中国成为下一代半导体产业领导者的期望。此外,美国国防部希望能扭转威胁当今半导体生态系统的发展态势,同时降低半导体技术的障碍。”

美国白宫提出22亿美元用于资助一项为期五年的计划,其目标有四:为ERI等各种研究计划提供更多资金、为军事和商业用户建立联合创新中心、扩大政府取得可靠芯片供应的来源,以及从人工智能(AI)处理器、精确导航与频率芯片到电子战等领域加速军事现代化计划。

美国国防部将于8月宣布其首座芯片创新中心,将用于打造快速、安全的芯片设计。目前正积极透过集思广义寻求新方法,以确保并验证可靠的芯片供应,“促进安全标准作为数据服务和医疗电子等领域的(商业)差异化因素”。

目前,美国军方缺少可靠的14纳米(nm)工艺技术和2.5D芯片封装来源,但这两种技术已广泛用于高阶商业产品。

国防部先进研究计划署(DARPA)负责ERI计划的William Chappell说:“这是自贝尔实验室(Bell Labs)发明晶体管以来,国防部第一次无法取得最新技术。这一机制被打破了,我们必须尽快使其结合在一起。”

英特尔(Intel)的一位高层表示,政府对于无法确保安全的可靠来源设下了太多限制,例如要求所有的晶圆厂人员都必须是美国公民。格芯(Globalfoundries)的一位经理则指出,目前在纽约厂的14nm工艺与三星(Samsung)之间仍在一些难以解决的业务纠结。

Mentor Graphics首席执行官Wally Rhines表示,商业用户并不想为EDA供应商目前可提供的安全特性付出代价。“要改变这种情况可能还得费一番功夫。”

在产出科学与工程学的毕业生和博士学位方面,中国均处于全球领先地位,但在引用技术论文方面仍然落后于美国。不过,Rhines和Chappell都坦言中国政府在扶植半导体产业方面斥资百亿美元,这是美国政府所不及之处。

Rhines在一次采访中告诉Chappell:“我们必须更智能的执行任务,并找到对的问题,因为我们永远赶不上(中国)的庞大投资资金,所以必须以现有资源做更多的工作。”

Rhines强调,中国扶植半导体产业的庞大投入较美国更高得多...

从芯片蓝图看未来的“严峻考验”

Alphabet董事会主席John Hennessy直接点出在设计未来处理器时将会面对的问题,他形容“那是一项十分严峻的挑战”。

“我们目前所使用的技术在本质上缺乏效率,而且随着时间的进展还会更加严重。”Hennessy详述Denard微缩理论的终结以及诸如高速缓存等基本概念的局限。“谁知道我们有一天还得放慢微处理器的速度或关闭核心,才不至于使其过热呢?这是在10年前或20年前没人会相信的事。”

例如,他指出,工程师也许“可以打造一款功耗为295W的96核心4.9GHz处理器,但即使是在大型数据中心,也必须设法排除大量的热。所以,如果你需要保持在200W或更低功耗,也许你只能承担得起65核心或甚至更低核心的作业。”

Hennessy呼吁采用一种全新的硬件、软件和设计工具途径。“更快速地执行以及重塑自我是唯一的前进方向。”

具体来说,他呼吁特定应用的专用处理器——即加速器——应该以其所服务的特定领域语言和算法共同开发。图像和神经网络加速器是第一批获得动能的新芯片。他并补充说,他们需要配合专有的编程工具,如OpenGL (图像)、TensorFlow (深度学习)和P4(通讯)等。

此外,“我们还需要在设计成本方面取得突破,就像在1980与1990年代时一样…我们已经取得合成的能力了…想象有一天完成一项项目时在硬件开发所花的时间就像软件开发一样…。”

Hennessy告诉与会者,我们需要更快速地执行并重塑自我

Nvidia首席科学家Bill Dally同意这个看法。他说:“摩尔定律已死,加速器就是未来!”他举例说明自己曾经协助设计一款加速器用于基因测序的效率,以及Nvidia最新的GPU——即如今包括多重乘积数组的张量核心,可用于加速深度学习任务。

通常,设计应该先将工作负载映像到硬件,并留意数据位置等问题。他并补充说,硬件则应该采用一连串的加速器区块来完成特定任务。

英特尔首席技术专家Mike Mayberry在另一场主题演讲中赋予摩尔定律一个更加精确传神的比喻。“摩尔定律是有关每功能成本更低的整合,而且仍在持续进行中——但我们无法再采用这项技术来实现这一目标了。”他指的是新的材料、组件和封装方法。他将x86等通用处理器描述为海洋,而加速器则是“必须足够大的岛屿”,才足以为其所衍生的技术带来生机。

Hennessy表示,英特尔的x86处理器性能越来越低于摩尔定律预测

斥重资投入先进研发计划

DARPA在此次活动中宣布为40多项研究计划提供超过3.2亿美元的赞助,其中有许多是相对较小的大学研究计划。但整体而言,业界高层都看好这些研究计划,但有些人指出,他们需要加快行动速度,才能获得更多资金,并且更加清楚结果如何导入商用化产品的路径。

3DSoC计划获得了最高约6,100万美元,用于开发一种打造更快速组件的方法——让组件速度较当今以7nm晶圆产线生产2.5D堆栈更快50倍的方法。该研究团队将试图在晶圆上整合史丹佛大学(Stanford University)的低温碳纳米管FET与麻省理工学院(MIT)开发的非挥发性电阻式RAM内存,该晶圆采用Skyworks明尼苏达州晶圆厂的90nm工艺制造。

如果成功了,它们将展现可观的组件良率——结合可重用的工艺设计套件和乔治亚理工学院(Georgia Tech)的EDA流程。但其最大的挑战在于使上层组件在CMOS兼容工艺中保持400°C以下,其中包括1000°C的退火步骤。

另一项名为FRANC的计划则着眼于打造新一代内存,使其较现有的嵌入式SRAM和DRAM速度更快,也更密集。它们将用于神经网络处理器版本。

美国伊利诺伊大学(University of Illinois)、Globalfoundries和Raytheon Missile Systems则将获得830万美元,共同开发基于MRAM的处理器;应用材料(Applied Materials)公司将与Arm合作,进行一项价值670万美元的RAM相关计划;而HRL Labs也获得了340万美元,用于研发基于忆阻器的芯片。

美光(Micron)先进运算副总裁Steve Pawlowski表示,“当今的内存技术是在1960-1970年代开发的——它们需要经过一段时间的发展。”因此,该公司将致力于研究一种采用系统级封装(SiP)的DRAM计划。

“启动一个DRAM单元需要1.25皮焦耳/位的功耗,而且这一数字并不会再降低了——它已经达到底线了。”他补充说,美光研究了多种融合内存与运算的途径,包括将智能加进感测放大器中。

Nvidia则凭借软件定义硬件的计划取得了2,270万美元的资助。该计划目标在于定义能作业于密集或稀疏矩阵的可重配置运算数组。

英特尔和高通(Qualcomm)分别获得了450万美元和200万美元,积极打造可重配置的处理器技术。Systems and Technology Research获得550万美元,用于开发基于数据的实时编译程序。

3DSoC计划目标是将碳纳米管FET与ReRAM整合于90nm基板上

另一项计划目标在于提供低功耗的加速器SoC,它大致上分为两个主要项目。亚利桑那州立大学(Arizona State)获得1,740万美元,与Arm合作开发软件定义无线电芯片。IBM则获得1,470万美元,用于为自动驾驶车定义编程加速器的方法。

编程的复杂性一直困扰着前端、高度平行的芯片。DARPA计划经理Tom Rondeau在早期的软件定义无线电计划中采用了IBM的Cell微处理器架构。他说,这种多核心芯片“让我们感到振奋......但(因为缺乏工具)我们花了很长时间才搞清楚如何使用......而当问题解决时,英特尔已经开发出新的处理器了,但我们也知道了他们的工具。”

DARPA在设计自动化大会(DAC)发布了两项与EDA相关的计划。Cadence获得最高的2,410万美元,使用机器学习设计用于模拟、封装和电路板的自动布局产生器。

Arm、加州大学圣地亚哥分校(U.C. San Diego)和高通则将参与一项耗资1,130万美元的计划,利用机器学习为数字芯片设计开放来源的自动布局产生器。明尼苏达大学(University of Minnesota)则获得530万美元,用于设计类似的模拟电路工具。

DARPA还介绍了几个即将完成的半导体研究计划最新进展,并表示将在今年秋季发布一些新的计划及其成果。

相关推荐

相关文章