AI不可想象芯片?谷歌发文回击!
(原标题:AI不可想象芯片?谷歌发文回击!)
若是您但愿不错通常碰头,迎接标星储藏哦~
最近谷歌DeepMind发表研究论文,回击针对其AI芯片想象系统AlphaChip的品评。
谷歌东谈主工智能部门最初于 2020 年文书了用于想象芯片布局的新颖强化学习要领,并于 2021 年在《天然》杂志上发表了一篇联系论文。该论文宣称,AlphaChip 大概为每一代谷歌 TPU AI 加速器省俭数千小时的东谈主力,而况一经被该公司用于匡助想象其张量芯片。
该效果于 2022 年开源,而后被谷歌用于其基于 Arm 的 Axion CPU 以偏激他尚未公布的谷歌里面芯片
关联词,2023 年,两篇论文对这一戮力的得胜建议了质疑——一篇来自 Cheng等东谈主,另一篇来自 Igor Markov。Cheng 的论文称,他们无法重现谷歌的要领,而EDA大厂的科学家 Markov 发表了一篇吞并分析,称这种要领是“空幻的晨曦”。
Markov 表示,分析“标明,谷歌强化学习落伍于(i)东谈主类想象师、(ii)著明算法(模拟退火)和(iii)广漠可用的买卖软件,而且速率较慢;在 2023 年的公开研究竞赛中,强化学习要领并未参加前五名。”他还援用了一位对该论文表示担忧的谷歌举报东谈主的话。
由于争议附近升级,《天然》杂志在谷歌的论文上添加了编者注,并表示正在侦察这项研究。一位审阅过谷歌论文的沉寂群众除掉了他在《天然》杂志上发表的最初推奖谷歌使命的挑剔著作。
谷歌宣称,Cheng的论文存在多方面颓势,包括未进行预测验和使用较少的计较资源。谷歌还表示,“马尔科夫发表了毫无根据的讹诈指控”,并补充说,又名里面侦察东谈主员跟踪到了举报东谈主,举报东谈主承认,诚然他怀疑存在讹诈行为,但“他莫得根据支执他的讹诈怀疑”。
这家科技巨头当今表示,《天然》杂志本年 4 月完成了侦察,并“完满作念出了对咱们有益的裁决”,并于 9 月删除了裁剪小心。同月,联发科文书将使用 AlphaChip 动作其芯片斥地的一部分。
Markov本月再行发表并更新了他的分析,并补充说“《天然》杂志上发表的论文所引发的总共主要担忧均未得到处分。”他表示,AlphaChip 并非如其所宣称的那样开源:“除其他部分外,模拟退火的源代码仍然缺失,此外,若是莫得专有的测验数据和测试数据,《天然》杂志上的扫尾就无法重现。”
谷歌在一篇对于 AlphaChip 的博客著作中宣称,“AlphaChip 想象了更好的芯片布局,并提供了更多的举座平面图,从而加速了想象周期并坐褥出性能更高的芯片。
“AlphaChip引发了芯片想象东谈主工智能鸿沟的爆炸式增长,并已彭胀到芯片想象的其他要道阶段,举例逻辑空洞和宏选拔。”
原始论文中列出的名字中包括 Richard Ho,据音讯自大,这位前谷歌 TPU 发达东谈主于 2023 年转投 OpenAI。
以下为论文正文:
芯片已开赴:对芯片想象东谈主工智能毫无根据怀疑的批判
摘 要
2020 年,咱们引入了一种大概生成超东谈主芯片布局(superhuman chip layouts)的深度强化学习要领,随后咱们在《天然》杂志上发表了该要领并在 GitHub 上开源。AlphaChip 引发了芯片想象 AI 方面的多半使命,并已在 Alphabet 最先进的芯片中部署,并由外部芯片制造商进行了彭胀。即便如斯,ISPD 2023 上的一篇未经同业评审的受邀论文质疑了它的性能声明,尽管它未能按照《天然》杂志中描写的形式运行咱们的要领。
举例,它莫得事前测验 RL 要领(摒除了从先前警告中学习的才略),使用的计较资源大大减少(RL 警告蓄积器减少了 20 倍,GPU 数目减少了一半),莫得测验到拘谨(机器学习的圭臬作念法),而况对不代表当代芯片的测试用例进行了评估。
最近,Igor Markov 发表了三篇论文的“meta-analysis”:咱们同业评审的《天然》论文、非同业评审的 ISPD 论文以及 Markov 我方未发表的论文(尽管他莫得涌现他是该论文的合著者)。尽管 AlphaChip 一经得回鄙俚接纳和影响,但咱们照旧发表了此回话,以确保莫得东谈主会因为空幻而解除在这个有影响力的鸿沟进行改进。
简介
在《天然》杂志上发表后,AlphaChip 引发了东谈主工智能芯片想象的多半研究。它还生成了超东谈主芯片布局,用于三代 TPU(见图 1)、数据中心 CPU(Axion)和 Alphabet 的其他芯片,并被外部学者和芯片制造商彭胀到芯片想象的新鸿沟。
即便如斯,Igor Markov 在 2024 年 11 月的《Communications of the ACM》上发表了对咱们使命的品评,该品评是对咱们的《天然》论文和两篇非同业评审论文的“meta-analysis”:
1、Cheng 等东谈主:第一篇是 Cheng 等东谈主的受邀 ISPD 论文 。这篇论文莫得罢黜圭臬的机器学习实践,其强化学习要领和实验成立与咱们的《天然》论文中描写的有很大不同。
尽管如斯,其受限版块仍然优于 RePlAce2,后者是咱们在《天然》杂志上发表时最先进的手艺。
2、Markov 等东谈主:第二篇“meta-analyzed”论文是一份未发表的 PDF,莫得作家名单,被描写为“Google 团队 ”进行的“单独评估”,但执行上是 Markov 本东谈主共同撰写的
,尽管这一丝并未败露。这篇论文不合乎谷歌的出书圭臬。2022 年,谷歌的一个沉寂委员会对其进行了审查,该委员会认定“草稿中的声明和论断莫得得到实验的科学支执”而况“由于 AlphaChip 在其原始数据集上的扫尾被沉寂复制,这使 Markov 等东谈主 的 RL 扫尾受到质疑” 。咱们向委员会提供了一瞥剧本,该剧本生成的强化学习扫尾昭着优于 Markov 等东谈主报酬的扫尾,优于他们的“更强”的模拟退火基线(simulated annealing baseline)。咱们仍然不知谈 Markov 和他的共事是怎样得出论文中的数字的。
马尔科夫的“meta-analyzed”为咱们的论文带来了另一个担忧:谷歌里面的“告发者”。关联词,这位“告发者”向谷歌侦察员承认,他莫得情理驯顺存在讹诈行为:“他说他怀疑 Goldie 和 Mirhoseini 进行的研究存在讹诈行为,但也表示他莫得根据支执他的讹诈怀疑”。
在他的“meta-analyzed”中,马尔科夫在莫得根据的情况下对讹诈和科学怪异行为进行了跋扈的揣测,但这些齐莫得发生。马尔科夫的大部分品评齐是这么的:在他看来,咱们的要领不应该有用,因此它一定不起作用,任何标明其他要领有用的根据齐是讹诈。
《天然》杂志侦察了马尔科夫的担忧,发现它们完满莫得根据,并在这一过程扫尾时发表了一份附录,支执咱们的使命。举例,在论断的开始段落中,马尔科夫指出(强调他):“在这篇论文中,咱们发现 ML 中存在各式可疑作念法,包括不可重叠的研究实践、多种挑选、误报和可能的数据浑浊(泄漏)。”咱们莫得参与任何这些作念法,也莫得任何其他表情的科学怪异行为,马尔科夫也莫得为这些指控提供任何根据。
马尔科夫在论文中莫得任何所在描写任何表情的所谓挑选,更毋庸说多种变体了,他也莫得提供根据。他也莫得描写任何表情的所谓“误报”,也莫得解释他的意旨真理,也莫得提供根据。他也莫得提供任何数据浑浊(泄漏)的根据,除了他推测若是发生这种情况,咱们的扫尾会得到改善。这些指控中的好多齐是第一次出当今他的“论断”部分!
为了谩骂咱们的 TPU 部署,马尔科夫还表示谷歌细目仅仅在“测试”咱们的要领,允许在 TPU 中使用劣质的 AlphaChip 来支执咱们的研究论文。这是不委果的,而且名义上很无理。谷歌更眷注 TPU 想象的遵守——这是一个耗资数十亿好意思元的技俩,是谷歌云和东谈主工智能筹备的中枢——而不是研究论文。
为了剖判起见,咱们列出了事件的时分表,包括非秘要部署:
简而言之,Markov 的论文不包含任何原始数据,仅仅对两篇论文的“meta-analysis”。
第一篇论文莫得作家名单(尽管 Markov 是作家之一),从未发表过,其看法莫得科学数据支执,而况无法重现。
第二篇论文,Cheng 等东谈主的论文,是 Markov 的“吞并分析”中唯独的本质性内容,因此咱们将本文的其余部分用于描写其所谓重现咱们的要领中的紧要问题。
2.Cheng 等东谈主对咱们要领的复现中的空幻
Cheng 等东谈主宣称在新的测试用例上将咱们的要领与其他要领进行比较。祸害的是,Cheng 等东谈主莫得按照《天然》中描写的形式运行咱们的要领,因此他们报酬不同的扫尾也就不及为奇了。在本节中,咱们描写了他们所谓的复现中的主要空幻:
1、莫得事前测验 RL 要领。从先前警告中学习的才略是咱们基于学习的要领的主要上风,而摒除它即是评估一种不同的、较差的要领。趁便说一句,预测验也产生了 Gemini 和 ChatGPT 等大型讲话模子的令东谈主印象久了的才略(“GPT”中的“P”代表“预测验”)。
2、 使用的计较资源减少了一个数目级:RL 警告蓄积器减少了 20 倍(26 vs Nature 中的 512),GPU 减少了 2 倍(8 vs Nature 中的 16)。
3、未测验至拘谨。测验至拘谨是机器学习的圭臬作念法,因为无人不晓,不这么作念会毁伤性能。
4、在非代表性、不可重叠的基准上进行评估。Cheng 等东谈主的基准具有更老、更大的手艺节点尺寸(45nm 和 12nm vs Nature 中的 7nm 以下),而况从物空想象角度来看有很大不同。此外,作家无法或不肯意分享复制其主数据表中的扫尾所需的合成网表。
5、 对咱们的要领进行了“大限制再行结束”,这可能会引入空幻。咱们建议改用咱们的开源代码。
祸害的是,这些主要的要领论各异使 Cheng 等东谈主与咱们的要领的比较和论断无效。若是 Cheng 等东谈主咱们一经磋议了《天然》杂志的通讯作家,咱们很乐意匡助他们在发表之前校正这些问题。
2.1、 莫得事前测验 RL 要领
与之前的要领不同,AlphaChip 是一种基于学习的要领,这意味着跟着它处分更多芯片甩掉问题实例,它会变得更好、更快。这是通过预测验结束的,预测验包括在运行保留的测试用例(测试数据)之前对“进修”块(测验数据)进行测验。
正如咱们在《天然》论文图 5 中所示(下图复制为图 2),测验数据集越大,该要领在甩掉新块方面就越好。正如咱们在《天然》著作中所述,咱们在主数据表(《天然》表 1)中的 20 个块上进行了预测验。
Cheng 等东谈主根蒂莫得进行预测验(即莫得测验数据),这意味着 RL 代理过去从未见过芯片,必须学习怎样重新最先为每个测试用例践诺甩掉。
这摒除了咱们要领的要道上风,即它从先前警告中学习的才略。
与其他著明的强化学习研究访佛,这就像评估一个从未见过围棋比赛的 AlphaGo 版块(而不是经过数百万场游戏的预测验),然后得出论断述 AlphaGo 不擅长围棋。咱们在《天然》杂志的论文中详备经营了预测验的紧要性(举例,“预测验”一词出现了 37 次),并通过警告解说了其影响。举例,《天然》杂志的图 4(此处复制为图 3)自大,预测验不错提升布局质地和拘谨速率。在开源 Ariane RISC-V CPU上,未经预测验的强化学习需要 48 小时。
政策来接近预测验模子在 6 小时内不错产生的扫尾。正如咱们在《天然》杂志上所述,咱们预测验了 48 小时才得到主数据表中的扫尾,而 Cheng 等东谈主的预测验时分为 0 小时。
咱们的开源存储库不错完满重现咱们在《天然》论文中描写的要领。Cheng 等东谈主试图通过表示咱们的开源存储库不支执预测验来为他们弯曲预测验辩解,但这是不正确的。预测验仅仅在多个示例上运行该要领,而况一直得到支执。
2.2 RL要领提供少许的计较资源
在Cheng等东谈主的著作中,RL要领提供了少20倍的RL警告蓄积器(执行上是26对512)和一半数目的GPU(执行上是8对16)。使用较少的计较可能会毁伤性能,或者需要运行格外长的时分材干达到疏通(或更差)的性能。
如图4所示,在多半GPU上进行测验不错加速拘谨速率,并产生更好的最终质地。若是程等东谈主匹配了《天然》杂志上描写的实验成立,这可能会改善他们的扫尾。
2.3 RL要领未经过拘谨测验
跟着机器学习模子的测验,亏空常常会减少,然后达到清静景色,这表示“拘谨”——模子一经了解了它所践诺的任务。测验拘谨是机器学习的圭臬作念法,不这么作念是无人不晓的毁伤性能。
Cheng等东谈主莫得在四个区块中的任何一个上进行拘谨测验,这四个区块的拘谨图在他们的奉陪技俩现场提供 (莫得为BlackParrot- NG45或Ariane-NG45提供图)。
图5自大了Cheng等东谈主技俩现场的拘谨图,表1追念了可用信息。对于具有拘谨图的总共四个区块(Ariane-GF12、MemPool-NG45、BlackParrot-GF12和MemPool-GF12),测验在相对较低的步数(区别为350k、250k、160k和250k步)处被割断10。罢黜圭臬的机器学习实践可能会提升这些测试用例的性能。
2.4 Cheng等东谈主的测试案例不可代表当代芯片
在《天然》杂志论文中,咱们报酬了具有亚7纳米手艺节点尺寸的张量处理单位(TPU)模块的扫尾,这是当代芯片的典型特征。比拟之下,Cheng等东谈主报酬了较老手艺节点尺寸(45纳米和12纳米)的扫尾,这与物空想象有很大不同。
举例,在10纳米以下,常常使用多重图案化,导致较低密度下出现布线拥塞问题。因此,对于较老的手艺节点大小,咱们的要领可能受益于对其奖励函数的拥塞或密度重量的退换11。咱们还莫得将咱们的手艺应用于旧节点的想象,因为咱们总共的使命齐是在7纳米、5纳米和更近的工艺上,尽管咱们迎接社区在这方面的孝敬。
3、与Cheng等东谈主联系的其他问题
在本节中,咱们描写了Cheng等东谈主的其他问题, 包括它与闭源买卖自动甩掉器的比较,它在圭臬单位簇再均衡中对运转甩掉的东谈主为“消融”,它有颓势的联系性研究,以及它对谷歌工程师考据的空幻声明。
3.1 Inappropriate Comparison With Commercial Autoplacers
Cheng等东谈主将一个被严重减轻的RL要领与在咱们的要领发表多年后发布的未发表的、闭源的、特地的软件进行了比较。这不是评估咱们要领的合理形式——就咱们所知,闭源器具不错胜利建设在咱们的使命之上。
2020年5月,咱们进行了一项盲看法里面研究,将咱们的要领与两家首先的Commercial Autoplacers的最新版块进行了比较。咱们的要领优于两者,以13比4(有3次平局)和15比1(有4次平局)的上风打败了对方。祸害的是,与买卖供应商的圭臬许可合同不容公开比较他们的家具。
3.2 Contrived “Ablation” of Initial Placement in Standard Cell Cluster Rebalancing
在运行咱们在《天然》杂志上发表的论文中评估的要领之前,从物理合成中得回一个近似运转位置,这是芯片想象过程的上一法式。被用来处分来自hMETIS的圭臬单位集群的大小挣扎衡问题。
Cheng等东谈主对单个块(Ariane-NG45)进行了“消融”研究。他们莫得浅易地跳过集群再行均衡法式,而是尝试将总共芯片组件放在左下角的顶部,导致再行均衡法式产生退化的圭臬单位集群。当这毁伤了性能时,Cheng等东谈主得出论断,咱们的RL代理正在某种进度上应用运转甩掉信息,即使它莫得打听运转甩掉信息而况莫得甩掉圭臬单位。
咱们进行了一项消融研究,摒除了任何运转甩掉的使用,并不雅察到性能莫得退化见表(2)。咱们仅仅跳过了集群再行均衡法式,而是将 hMETIS的集群“挣扎衡”参数裁汰到其最低成立(UBFactor=1),这导致hMETIS生成了更均衡的集群。自 2022年6月 10 日起,这一赞助预处理法式已被记载和开源。然而,这是不必要的,一经从咱们的坐褥过程中删除了。
3.3 代理老本与最终野心联系性的颓势研究
Cheng等东谈主宣称,咱们的代理老本与最终野心的联系性欠安,但他们的联系性研究执行上标明,除圭臬单位面积外,总体代理老本与总共最终野心之间存在微细但正联系(参见Cheng等东谈主的表2,如图6所示)。请提神,咱们将面积视为硬管制,因此分歧其进行优化。
在基于ML的优化中使用的代理老本常常只与标的对象有较弱的联系性。举例,像Gemini和ChatGPT这么的大型讲话模子被测验来揣测序列中的下一个单词,这是一个固有的噪声信号。
此外,Cheng等东谈主的联系性研究作念出了一些令东谈主骇怪的选拔:
·Cheng等东谈主只报酬了低于0.9的代理老本的联系性,莫得为这一决定提供情理。该阈值捣毁了他们我方的大多数扫尾(举例,参见Cheng等东谈主的表1)。
·联系性研究仅商酌了一个45nm测试案例(Ariane-NG45)。NG45是一种更老的手艺节点大小,举座老本函数的拥挤和密度组件可能需要退换以得回更好的联系性(见第2.4节)。
趁便提一下,AutoDMP15使用了访佛于咱们在《天然》杂志论文中建议的代理泄露长度、拥塞和密度老本,并发现它们执行上与最终野心联系。
3.4 Cheng等东谈主对谷歌工程师考据的空幻看法
Cheng等东谈主宣称谷歌工程师证实了其手艺正确性,但这是不委果的。谷歌工程师(他们不是《天然》杂志论文的通讯作家)仅仅证实,他们大概从零最先(即莫得预培训)根据咱们开源库中的快速初学指南对单个测试案例进行培训。《快速初学指南》天然不是描写怎样完满复制咱们在《天然》杂志上发表的论文中描写的要领,而仅仅动作第一步来阐明所需的软件一经装配,代码一经编译,而况不错在一个浅易的测试案例(Ariane)上得胜运行。
事实上,这些谷歌工程师分享了咱们的担忧,并提供了建设性的反应,但莫得得到处分。举例,在Cheng等东谈主的著作发表之前,通过书面交流和在几次会议中,他们建议了对该研究的关注,包括使用的计较量大大减少,以及未能退换代理老本权重以商酌到完满不同的手艺节点大小。
Cheng等东谈主的致谢部分还列出了天然通讯作家,并表示他们被接洽或甚而参与,但事实并非如斯。事实上,通讯作家是在这篇论文发表后才知谈的。
4.透明度和可复制性
4.1 AlphaChip是完满开源的
咱们开源了一个软件库以充分复制咱们在《天然》杂志中描写的要领。咱们的 RL要领中的每一瞥齐不错开脱搜检、践诺或修改,并提供源代码或二进制文献以践诺总共预处理法式和后处理法式。开源代码需要 TF-Agents团队一年多的戮力,包括沉寂复制咱们的要领和咱们在《天然》杂志中的扫尾。
来自咱们的开源存储库:“开源咱们的代码需要与谷歌的另一个团队(TF- Agents)相助。TF-Agents首先使用咱们的代码库复制了咱们的Nature著作中的扫尾,然后使用他们我方的结束再行结束了咱们的要领并复制了咱们的扫尾,然后开源了他们的结束,因为它不依赖于任何里面基础设施。”
Cheng等东谈主不必要隘“逆向工程”了咱们动作性能优化二进制文献提供的两个函数(代理老本函数和强制导向(FD)圭臬单位甩掉器)。如MLCAD 2021论文中所述,咱们当今建议使用DREAMPlace进行圭臬单位布局,而不是FD,因为它能产生更好的性能。咱们提供传统的FD二进制文献的唯独看法是使咱们的要领大概准确地复制,正如在《天然》杂志上发表的那样。
对于环球基准,咱们在《天然》杂志上报谈了开源Ariane RISC-V CPU的扫尾。此外,在MLCAD 2021的后续论文中,咱们对开源ISPD 2015竞赛基准进行了评估。因为咱们一经开源了咱们的代码,社区不错开脱地罢黜咱们的要领,并在职何环球基准上评估咱们的要领。
4.2 Cheng等东谈主宣称他们不可分享他们的“洞开”测试用例
Cheng等东谈主建议的品评之一是,Nature评估是在专有的模块上进行的(此外,开源的Ariane模块也进行了评估,并在后续出书物中公开了ISPD 2015基准)。Cheng等东谈主宣称对一组洞开测试案例进行评估,以提升可重叠性,但当咱们与作家通讯时,他们无法或不肯意提供必要的空洞网表,以在其主数据表(表1)中复制“洞开”测试案例的扫尾。
祸害的是,这意味着咱们不可复制Cheng等东谈主的表1中的任何扫尾:
GF12(12纳米):这些测试案例是专有的,公众无法得回,Cheng等东谈主的扫尾是缺乏的,这意味着即使外部研究东谈主员得回打听权,胜利比较仍然是不可能的。
NG45(45纳米):尽管自2024年2月以来已有卓越10次的肯求,但Cheng等东谈主尚未分享重现其NG45扫尾所需的合成网表。请提神,其他论文对NG45模块进行了评估,但其扫尾与Cheng等东谈主的表1中的扫尾不一致(举例,参见AutoDMP 的表2),强调了再现性挑战。
祸害的是,当代芯片学问产权是明锐的和专有的,据咱们所知,莫得洞开的基准可用于顶端工艺。咱们饱读吹芯片想象社区为当代纳米以下工艺创造更洞开的想象,因为这将有助于鼓舞该鸿沟上前发展。现时,完满洞开的想象常常为28纳米、45纳米甚而130纳米,好多物空想象问题与7纳米以下工艺大不疏通。
5、论断
在Cheng等东谈主尝试再行评估咱们的使命时,作家莫得按照《天然》杂志中的描写运行咱们的要领(举例,他们莫得进行预测验,使用的计较量大大减少,而况莫得进行拘谨测验),报酬了既不具有代表性也不具有可重叠性的基准扫尾,而况运行了有问题的消融/联系性研究。
在他的论文中,Markov发表了基于Cheng等东谈主的“元分析”(莫得再现咱们的要领)和匿名PDF(Markov执行上是合著者)的毫无根据的讹诈指控,其扫尾无法再现,而况“草案中的看法和论断莫得得到实验的科学支执”。
与此同期,AlphaChip引发了芯片想象的东谈主工智能使命的爆炸,它的超东谈主布局一经在谷歌数据中心部署的多代TPU中完成,以及Alphabet和外部芯片制造商的其他芯片。咱们期待看到AI不息窜改硬件想象的各个方面,就像硬件的卓越透彻窜改了AI不异。
半导体杰作公众号推选
专注半导体鸿沟更多原创内容
关注全球半导体产业动向与趋势
*免责声明:本文由作家原创。著作内容系作家个东谈主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或支执,若是有任何异议,迎接磋议半导体行业不雅察。
今天是《半导体行业不雅察》为您分享的第3956期内容,迎接关注。
『半导体第一垂直媒体』
及时 专科 原创 深度
公众号ID:icbank
可爱咱们的内容就点“在看”分享给小伙伴哦