IBM新芯片拥有100万个神经元 可模拟人脑运行

2016-09-2411:02:59 1 19,179

北京时间9月24日消息,IBM一直都有一个梦想,开发一台计算机,它能够像人一样做决定,拥有智力。最近,IBM的研究取得了重大突破,它离目标更近一步。

IBM新芯片拥有100万个神经元 可模拟人脑运行

IBM开发了名叫TrueNorth的芯片,能够模拟人脑运行。为了证明它的速度很快,能耗很低,IBM对芯片进行了测试。TrueNorth具有深度学习能力,像人类大脑一样,它也可以进行关联分析,判断各种可能性。虽然其它一些计算机也可以拥有相同的能力,但是它们的能耗高很多。

因为TrueNorth可以自己学习,未来,我们可以将“智力”植入各种计算设备,比如物联网、智能手机、机器人、汽车、云计算和超级计算机。

早先IBM展示过芯片,当时它将芯片装进一台名叫NS16e的计算机,该计算机的运行原理与人脑类似。利用神经网络,NS16e能够识别图像、语音、模式。

人类的大脑极为复杂,拥有1000亿个神经元,神经元通过神经节点——也就是突触——连结在一起,彼此可以通信。皮质负责识别视觉图像,其它部分负责各种运动机能。

NS16e建有“数字神经元”,但是数量比人脑少得多。IBM系统安装了16颗TrueNorth芯片,每一颗有100万个神经元,突触数量2.56亿个,彼此用电路连结在一起。NS16e也有内存、计算通信子系统,但是它们的设计方式与现有组件不同,IBM系统可以处理数据。

IBM介绍称,TrueNorth处理器可以给图片数据分类,每秒速度1200-2600帧,能耗25-275毫瓦。处理器还能够识别图片模式,这些图片是50-100个摄像头以每秒24帧的速度拍摄的。未来,IBM可以将功能嵌入到智能手机,几天不充电都可以使用。

TrueNorth的能耗很低,现有安装的是传统芯片,比如GPU、CPU和FPGA,它们也可以识别图像和语音。Facebook、谷歌、微软、百度都在开发深度学习技术,通过分析与图片、语音相关的答案,深度学习网络可以自动学习,网络一般用GPU驱动,能耗很高,超过150瓦。

IBM为TrueNorth开发了算法和深度学习模式,它包含了识别模式,可以将过往数据和现有数据联系在一起。针对不同的深度学习模式,IBM开发了相应算法,尽管如此,芯片仍然兼容现有系统,比如MatConvNet。换言之,开发者利用MatConvNet就可以为IBM芯片开发学习模型,TrueNorth可以在幕后处理任务,开发者并不需要直接面对TrueNorth。

这种处理过程和早期的游戏开发有些类似,最开始时,游戏开发者并不直接深入GPU,他们也不知道如何利用GPU的功能。直到最近,Vulkan更换了OpenGL API,开发者才可以直接使用GPU功能。

深度学习很强大,无人驾驶汽车就是明证,汽车用强大的计算机导航,识别信号、车道及其它对象,安全行驶。TrueNorth芯片会让每一个神经元进行低级处理,然后将处理结果融合在一起,最终识别图像或者声音。事实上,Nvidia、英特尔芯片使用的技术是一样的,只是功耗高很多。

TrueNorth仍然处在发展初期,按照IBM的计划,它准备开发一台和人脑相当的计算机,问题在于编写算法和应用有些挑战。

2004年,IBM开始研究“大脑”芯片,2009年,IBM计算机已经能够模拟猫的大脑,2011年,IBM开发出原型芯片,它有256个数字神经元,能够识别模式。什么时候能开发出跟人脑一样强大的电脑?可能还要等很长时间。IBM还在开发量子计算机,其它一些机构和企业也在开发人脑模拟芯片,比如惠普企业(Hewlett Packard Enterprise)、斯坦福大学、德国海德堡大学、英国曼彻斯特大学。

weinxin
N软网微信公众号扫一扫
观点新鲜独到,有料有趣,有互动、有情怀、有福利!关注科技,关注N软,让我们生活更加美好!
  • A+

发表评论

目前评论:1   其中:访客  0   博主  0

    • 北辰 北辰
      Google Chrome 53.0.2785.116 Windows 10

      这是一个激动人心的时代!