新型尖峰神经形态芯片或将开启高效人工智能时代

G ltz 和 Kriener 等人对阴阳数据集中的数据点进行分类 说到大脑计算,时间就是一切。这就是神经元连接到电路中的方式。这就是这些电路如何处理高度复杂的数据,从而导致可能意味着生死的行为。这就是我们的大脑如何做出瞬间决定的方式,即使面对全新的环境...

新型尖峰神经形态芯片或将开启高效人工智能时代

G ltz 和 Kriener 等人对阴阳数据集中的数据点进行分类

说到大脑计算,时间就是一切。这就是神经元连接到电路中的方式。这就是这些电路如何处理高度复杂的数据,从而导致可能意味着生死的行为。这就是我们的大脑如何做出瞬间决定的方式,即使面对全新的环境也是如此。我们这样做不会因为大量的能源消耗而烧毁大脑。

换句话说,大脑是一个非常强大的计算机来模仿的一个很好的例子计算机科学家和工程师已经迈出了步。神经形态计算领域希望通过新颖的硬件芯片和软件算法来重建大脑的架构和数据处理能力。它可能是通往真正人工智能的途径。

但是缺少一个关键要素。大多数为神经形态芯片提供动力的算法只关心每个人工神经元的贡献即它们彼此连接的强度,称为“突触权重”。缺少的但等同于我们大脑的内部工作是时间。

本月,隶属于欧盟旗舰大数据神经科学项目“人脑计划”的一个团队为神经拟态算法添加了时间元素。然后在物理硬件(BrainScaleS-2神经形态平台)上实施结果,并与进的 GPU 和传统的神经形态解决方案进行对比。

作者说:“与深度学习中使用的抽象神经网络相比,更多的生物原型……在性能和可扩展性方面仍然落后”,因为它们固有的复杂性。

苏黎世大学和瑞士苏黎世联邦理工学院的 Charlotte Frenkel 博士说,在几项测试中,该算法“在准确性、延迟和能源效率方面”与标准基准测试进行了比较,他没有参与这项研究. 通过在神经形态计算中添加时间组件,我们可以迎来一个高效 AI 的新时代,从静态数据任务(例如图像识别)转向更好地封装时间的任务。想想视频、生物信号或大脑对计算机的语音。

对于主要作者 Mihai Petrovici 博士来说,潜力是双向的。“我们的工作不仅对神经形态计算和受生物启发的硬件感兴趣。它还承认需要……将所谓的深度学习方法转移到神经科学,从而进一步揭开人脑的秘密,”他说。

让我们谈谈尖峰

新算法的根源是大脑计算的一个基本原则:尖峰。

让我们来看看一个高度抽象的神经元。它就像一个tootsie卷,有一个球状的中间部分,两侧是两个向外延伸的包装纸。一侧是输入一棵从前一个神经元接收信号的复杂树。另一个是输出,使用装满化学物质的气泡状船向其他神经元发出信号,这反过来又在接收端触发电响应。

关键是:要使整个序列发生,神经元必须“尖峰”。当且仅当神经元接收到足够高的输入水平(一种很好的内置降噪机制)时,球状部分会产生一个尖峰,沿着输出通道向下传播以提醒下一个神经元。

但是神经元不仅仅使用一个尖峰来传达信息。相反,它们按时间顺序飙升。把它想象成摩尔斯电码:电爆发发生的时间携带着大量的数据。它是神经元连接到电路和层次结构的基础,从而实现高能效处理。

那么为什么不对神经形态计算机采用相同的策略呢?

斯巴达式大脑芯片

与绘制单个人工神经元的尖峰(一项艰巨的任务)不同,该团队专注于一个指标:神经元激活需要多长时间。

“首次尖峰时间”代码背后的想法很简单:神经元尖峰所需的时间越长,其活动水平就越低。与计数尖峰相比,这是一种对神经元活动进行编码的极其稀疏的方式,但也有好处。因为只有到神经元次启动时的延迟才用于编码激活,所以它可以捕获神经元的响应,而不会用太多数据点压倒计算机。换句话说,它快速、节能且简单。

该团队接下来将算法编码到一个神经形态芯片BrainScaleS-2 上,它大致模拟了其结构内部的简单“神经元”,但运行速度比我们的生物大脑快 1000 多倍。该平台拥有超过 500 个物理人工神经元,每个神经元能够通过可配置的突触接收 256 个输入,生物神经元在此处交换、处理和存储信息。

设置是混合的。“学习”是在实现时间相关算法的芯片上实现的。然而,神经回路的任何更新即一个神经元与另一个神经元的连接强度都是通过外部工作站实现的,这被称为“在环训练”。

在次测试中,该算法接受了“阴阳”任务的挑战,该任务要求算法解析传统东方符号中的不同区域。该算法表现出色,平均准确率为 95%。

该团队接下来用经典的深度学习任务MNIST挑战了设置,MNIST是一个手写数字数据集,彻底改变了计算机视觉。该算法再次表现出色,准确率接近 97%。更令人印象深刻的是,BrainScaleS-2 系统用不到一秒的时间对 10,000 个测试样本进行分类,相对能耗极低。

将这些结果放入上下文中,该团队接下来将采用新算法的 BrainScaleS-2 的性能与商业和其他神经形态平台进行了比较。以SpiNNaker 为例,这是一种大规模并行分布式架构,它也模拟神经计算和峰值。新算法在图像识别方面的速度提高了 100 多倍,而消耗的功率仅为 SpiNNaker 的一小部分。类似的结果也出现在 True North,即 IBM 神经形态芯片的先驱。

接下来是什么?

大脑的两个有价值的计算功能能源效率和并行处理现在极大地激发了下一代计算机芯片的发展。目标?构建与我们自己的大脑一样灵活和适应性强的机器,同时仅使用我们当前基于硅的芯片所需的一小部分能量。

然而,与依赖人工神经网络的深度学习相比,生物学上合理的深度学习已经衰落了。Frenkel 解释说,部分原因是通过学习来“更新”这些电路的难度。但是,有了 BrainScaleS-2 和一些计时数据,现在就可以了。

同时,拥有一个“外部”仲裁器来更新突触连接,让整个系统有时间喘口气。神经形态硬件,类似于我们大脑计算的混乱,充满了不匹配和错误。借助芯片和外部仲裁器,整个系统可以学会适应这种可变性,并终补偿甚至利用其怪癖以实现更快、更灵活的学习。

对于 Frenkel 来说,该算法的强大之处在于它的稀疏性。她解释说,大脑由稀疏代码驱动,“可以解释快速反应时间……例如视觉处理。” 不需要激活整个大脑区域,只需要几个神经网络就像在空旷的高速公路上呼啸而过,而不是在高峰时段的交通中陷入困境。

尽管它很强大,但该算法仍然存在问题。尽管它在时间序列方面表现出色,例如语音或生物信号,但它很难解释静态数据。但对 Frenkel 来说,这是一个新框架的开始:重要的信息可以用灵活但简单的指标进行编码,并进行概括,以丰富基于大脑和 AI 的数据处理,而只需传统能源成本的一小部分。

“[它]……可能是刺激神经形态硬件的重要垫脚石,终证明其优于传统神经网络方法的竞争优势,”她说。

温馨提示:

1.本站大部分内容均收集于网络!若内容若侵犯到您的权益,请联系站长处理!

2.如果您喜欢我们,可开通终身会员,享受全站资源免费下载!

3.本站所有内容只做学习和交流使用。 版权归原作者所有。

搜索