让不懂建站的用户快速建站,让会建站的提高建站效率!
栏目分类
发布日期:2024-11-04 08:14 点击次数:116
本文由半导体产业纵横(ID:ICVIEWS)概述
畴昔的芯片可能会从咱们的大脑结构中吸收灵感。
神经形态计算是一种旨在师法大脑的硬件设想和算法步调。这一成见并不是刻画一个精准的复成品,一个充满合成神经元和东谈主工灰质的机器东谈主大脑。违反,从事这一领域的巨匠正在设想一个计算系统的系数层来反应大脑的服从。与传统计算机比拟,东谈主脑果然不使用任何电力,即使濒临磨叽或界说不解确的数据和输入,也能有用地处罚任务。
在某些情况下,这些远程仍处于深入研发阶段,现时它们大多存在于实验室中。但在其中一个案例中,原型性能数据标明,受大脑启发的计算机处理器很快就会上市。
什么是神经形态计算?
从词源上讲,“神经形态”一词的字面兴味是“大脑或神经元阵势的特征”。但这个术语是否符合该领域或特定处理器可能取决于你问的对象。它可能意味着试图重现东谈主脑中突触和神经元活动的电路,也可能意味着从大脑处理和存储信息的边幅中获取成见灵感的计算。
若是听起来神经形态计算(或大脑启发式计算)领域有些悬而未决,那只是因为计划东谈主员在构建模拟大脑的计算机系统时采用了人大不同的步调。IBM 计划部门过火他机构的科学家多年来一直在远程开荒这些机器,但该领域尚未找到典型的神经形态架构。
一种常见的脑启发计算步调是创建特地浅近、抽象的生物神经元和突触模子。这些模子内容上是使用标量乘法的静态非线性函数。在这种情况下,信息以浮点数的步地传播。当信息被放大时,闭幕等于深度学习。浅近地说,深度学习是脑启发的——系数这些数学神经元加起来等于师法某些大脑功能的东西。
IBM 计划科学家 Abu Sebastian 示意:“在已往十年左右的时期里,这项技巧取得了巨大凯旋,绝大多数从事与脑启发计算关系责任的东谈主实践上都在从事与此关系的责任。”他示意,通过衔尾神经元或突触能源学进行交流,不错用其他脑启发边幅来用数学模拟神经元。
另一方面,模拟步调使用先进的材料,不错存储 0 到 1 之间的连气儿电导值,并履行多级处理——使用欧姆定律进行乘法,并使用基尔霍夫电流总数积贮部分和。
片上存储器怎么排斥经典瓶颈
类脑计算架构步调的一个共同特色是片上内存,也称为内存计算。与传统微处理器比拟,这是芯片结构的根人道转念。
大脑分为多个区域和电路,追念形成和学习(实践上是数据处理和存储)都位于湮灭位置。传统计算机并非如斯栽培。使用传统处理器时,内存与进行计算的处理器是分开的,信息通过电路在两者之间往还传输。但在包含片上内存的神经形态架构中,追念与精致处理紧密关系,就像在大脑中相同。
这种架构是 IBM 内存计算芯片设想的主要特征,非论是模拟如故数字。
将计算和内存放在通盘的事理是,机器学习任务是计算密集型的,但任务本身并不一定很复杂。换句话说,有多量称为矩阵乘法的浅近计算。贬抑身分不是处理器太慢,而是在内存和计算之间往还移动数据需要太万古期并破费太多能量,尤其是在处理艰巨的责任负载和基于 AI 的应用才气时。这种短处被称为冯·诺依曼瓶颈,以自微芯一会儿间运行以来果然每种芯片设想都采用的冯·诺依曼架构定名。借助内存计算,不错通过从 AI 试验和推理等数据密集型过程中排斥这种混诓骗节俭多量能源和蔓延。
在 AI 推理的情况下,突触权重存储在内存中。这些权重决定了节点之间的和谐强度,在神经网罗的情况下,它们是应用于通过它们运行的矩阵乘法运算的值。若是突触权重存储在与处理位置分开的场地,何况必须往还传送,那么每个操作所破耗的能量将遥远在某个点相识下来,这意味着更多的能量最终不会带来更好的性能。塞巴斯蒂安和他的共事开荒了 IBM 的一种受大脑启发的芯片Hermes,他们确信他们必须谗谄移动突触权重所形成的顽固。目标是制造性能更高、占用空间更小的 AI 加快器。
“内存计算将内存和计算之间的物理分歧最小化或减少到零,”神经形态确立和系统小组的 IBM 计划科学家 Valeria Bragaglia 说。
以IBM 的 NorthPole 芯片为例,计算结构是围绕内存构建的。但 NorthPole 并莫得像模拟计算那样将内存和计算放在皆备相通的空间中,而是将它们交汇在通盘,因此不错更具体地称为“近内存”。但效果内容上是相同的。
受大脑启发的芯片怎么模拟神经元和突触
加州理工学院电气工程计划员卡弗·米德 (Carver Mead) 早在 20 世纪 90 年代就对神经形态计算领域产生了巨大影响,其时他和他的共事意志到有可能创建一种在欢欣学层面上雷同于神经元放电的模拟确立。
几十年后,Hermes 和 IBM 的另一款原型模拟 AI 芯片基本上等于这样作念的:模拟单元既履行计算,又存储突触权重,就像大脑中的神经元相同。这两种模拟芯片都包含数百万个纳米级相变存储器 (PCM) 确立,这是一种模拟计算版块的脑细胞。
PCM 确立通过电流流过它们来分派权重,从而篡改一块硫属化物玻璃的物理情状。当更多的电压通过它时,这种玻璃会从晶体再行陈设成非晶态固体。这使其导电性裁减,从而篡改矩阵乘法运算通过它时的值。在软件中试验 AI 模子后,系数突触权重都存储在这些 PCM 确立中,就像追念存储在生物突触中相同。
“突触不仅存储信息,还有助于计算,”IBM 计划科学家 Ghazi Sarwat Syed 说谈,他致力于设想 PCM 中使用的材料和确立架构。“关于某些计算,举例深度神经网罗推理,在 PCM 中共置计算和内存不仅不错克服冯·诺依曼瓶颈,而且这些确立还不错存储中间值,而不单是是典型晶体管的 1 和 0。” 目标是创建计算精度更高着实立,不错密集地封装在芯片上,何况不错用超低电流和功率进行编程。
“此外,咱们正在尝试让这些确立更具特色,”他说。“生物突触不错万古期以非易失性的边幅存储信息,但它们也会发生一会儿的变化。”因此,他的团队正在计划怎么篡改模拟内存,以更好地模拟生物突触。一朝你有了这个,你就不错设想出新的算法来处罚数字计算机难以处罚的问题。
Bragaglia 指出,这些模拟确立的污点之一是它们现时仅限于推理。“现时还莫得可用于试验着实立,因为移动分量的准确性还不够高,”她说。一朝东谈主工智能模子在数字架构上进行了试验,分量就不错被固定到 PCM 单元中,但平直通过试验来篡改分量还不够精准。此外,Syed 示意,PCM 确立的耐用性不及以让其电导率篡改一万亿次以至更屡次,就像在试验期间发生的那样。
IBM 计划部门的多个团队正在远程处罚材料性情不睬想和计算保真度不及形成的问题。其中一种步调波及新算法,该算法不错处罚 PCM 中模子权重更新期间产生的失误。它们仍处于开荒阶段,但早期闭幕标明,很快就不错在模拟确立上进行模子试验。
Bragaglia 参与了处罚这个问题的材料科学步调:一种称为电阻式立时存取存储器或 RRAM 的不同类型的存储确立。RRAM 的责任旨趣与 PCM 雷同,将突触权重的值存储在物理确立中。原子丝位于绝缘体里面的两个电极之间。在 AI 试验期间,输入电压会篡改丝的氧化,从而以特地精致的边幅篡改其电阻——何况在推理过程中,该电阻被读取为权重。这些单元以交叉阵列的步地陈设在芯片上,形成了一个突触权重网罗。到现时为止,这种结构还是长远出在模拟芯片中履行计算的同期保执更新天真性的出路。这是在 IBM 的几个计划团队经过多年的材料和算法共同优化后才收尾的。
除了存储追念的边幅以外,一些神经形态计算机芯片中数据流动的边幅可能与传统芯片中的流动边幅存在根底区别。在典型的同步电路(大多数计算机处理器)中,数据流基于时钟,具有连气儿回荡电流来同步电路的四肢。时钟不错有不同的结构和多层,包括时钟倍频器,使微处理器梗概以不同于电路其余部分的速率运行。但从根底上讲,即使没稀有据正在处理,事情也会发生。
Syed 示意,生物学采用的是事件驱动的脉冲。“咱们的神经细胞很少进行交流,这等于咱们如斯高效的原因,”他补充谈。换句话说,大脑只在必须责任时才责任,因此通过采用这种异步数据处理流,东谈主工模拟不错节俭多量能源。
不外,IBM 计划部门研发的系数三款受大脑启发的芯片均采用尺度时钟经由进行设想。
在其中一个案例中,IBM 计划东谈主员示意,他们在角落和数据中心应用方面取得了要紧发扬。IBM 计划员 Dharmendra Modha 示意:“咱们但愿从大脑中学习,但咱们但愿以数学的边幅从大脑中学习,同期针对硅进行优化。”他的实验室开荒了 NorthPole,它不是通过晶体管物理学模拟神经元和突触的欢欣,而所以数字边幅捕捉它们的近似数学。NorthPole 采用公理化设想,并交融了受大脑启发的低精度;散布式、模块化、中枢阵列,在中枢里面和中枢之间具有大领域计算并行性;近计算内存;以及片上网罗。NorthPole 还从 TrueNorth 的脉冲神经元和异步设想转念为同步设想。
TrueNorth是一款实验性处理器,亦然更为复杂且可供贸易化的 NorthPole 的早期跳板。关于这款处理器,莫德哈和他的团队意志到,事件驱动的脉冲使用硅基晶体管的服从很低。大脑中的神经元以梗概 10 赫兹(每秒 10 次)的频率放射,而现时的晶体管以千兆赫为单元运行 - IBM 的 Z 16 中的晶体管以 5 GHz 运行,MacBook 的六核 Intel Core i7 中的晶体管以 2.6 GHz 运行。若是东谈主脑中的突触以与札记本电脑相通的速率运作,“咱们的大脑就会爆炸”,赛义德说。在诸如 Hermes 之类的神经形态计算机芯片中 - 或受大脑启发的芯片(如 NorthPole)中,目标是将数据处理边幅的生物启发与 AI 应用才气所需的高带宽操作相衔尾。
由于他们选拔销毁雷同神经元的脉冲和其他师法大脑物理的特征,莫德哈示意,他的团队更倾向于使用“大脑启发”计算一词,而不是“神经形态”。他瞻望 NorthPole 有很大的发展空间,因为他们不错以纯数学和以应用为中心的边幅休养架构,以得到更多收益,同期还不错操纵硅片的推广和从用户反馈中吸取的训诫。数据长远,他们的计谋凯旋了:在莫德哈团队的最新恶果中,NorthPole 对 30 亿参数模子的推理速率比下一个最节能的 GPU 快 46.9 倍,能效比下一个最低蔓延的 GPU 高 72.7 倍。
角落念念考:神经形态计算应用
Syed 示意,计划东谈主员可能仍在界说什么是神经形态计算,或者构建大脑启发电路的最好步调,但他们倾向于觉得它特地符合角落应用——手机、自动驾驶汽车和其他不错操纵事先试验的模子进行快速、高效的 AI 推理的应用。Sebastian 示意,在角落使用 PCM 芯片的一个自制是,它们不错特地工整、性能高且价钱便宜。
Modha 示意,机器东谈主应用可能特地符合大脑启发式计算,以及视频分析,举例店内安全录像头。Bragaglia 示意,将神经形态计算应用于角落应用不错匡助处罚数据苦衷问题,因为确立内推理芯片意味着数据不需要在确立之间或云表往还传输,即可进行 AI 推理。
非论最终哪种脑启发式处理器或神经形态处理器胜出,计划东谈主员也一致觉得,现时的 AI 模子过于复杂,无法在传统 CPU 或 GPU 上运行。需要有新一代电路来运行这些浩大的模子。
“这是一个特地慷慨东谈主心的目标,”Bragaglia说。“这特地贫穷,但特地令东谈主同意。而且它正在发扬中。”
*声明:本文系原作家创作。著作内容系其个东谈主不雅点,自身转载仅为共享与计算,不代表自身奖饰或认可,如有异议,请接头后台。