神经拟态芯片与人脑设计
为了克服现下大型神经网络模型一跑就要大量耗电的弊端 , 德国与瑞士研究者在仿照人脑架构的神经拟态芯片上获得突破 , 有望以此芯片用当下千分之一的能耗运行未来大型AI 。
作为如今最成功的人工智能算法 , 人工神经网络 , 可以松散地模拟了人脑中真实神经网络的复杂链接 。
不过与人脑的高能效相比 , 实在是太费电了 。
文章图片
文章图片
于是 , 神经拟态计算应运而生 , 这种技术更贴近模仿了人脑的运作机理与物理定律 。
然而 , 由于器件失配难题 , 模拟神经元的质性会与设计略有不同 , 且电压和电流水平在不同的神经元之间也有差异 。
相比之下 , AI算法的训练则是在具有完全一致的数字神经元的计算机上完成的 。
因此 , 实际在神经拟态芯片上运行时 , 经常会出现「水土不服」的问题 。
文章图片
文章图片
2022年1月在美国国家科学院院刊上发布的一篇论文 , 揭示了绕过此难题的一种途径 。
文章图片
文章图片
论文链接:https://www.pnas.org/content/119/4/e2109194119
由瑞士弗雷德里希米歇尔生物医疗研究所的研究者弗里德曼·曾克 , 与德国海德堡大学的研究者约翰内斯·希密尔联合组成的团队 , 在脉冲神经网络这一类型的AI算法上获得新进展 。
脉冲神经网络使用模仿人脑中的特色脉冲交流讯号 , 可以在神经拟态芯片上运行 , 学会如何代偿芯片中的器件失配 。
此论文是AI迈向神经拟态运算的显著一步 。
模拟神经网络
与现有AI运行设备不同 , 神经拟态计算并不将数据在长间隔距离的CPU与存储卡之间搬运 。
神经拟态芯片设计模仿果冻般人脑的基础架构 , 将计算单元(神经元)置于存储单元(连接神经元的突触)旁边 。
为了让设计更像人脑 , 研究者将神经拟态芯片结合模拟计算 , 如此能像真实神经元一样处理持续不断的信号 。
文章图片
文章图片
这样产出的芯片 , 与现下依赖处理0与1的二元基础信号的数码计算模式和架构 , 有显著不同 。
以人脑作为设计指南 , 神经拟态芯片承诺有朝一日终结AI等大数据量运算工作的高耗能 。不幸的是 , AI算法在神经拟态芯片的模拟版本上运行效果不佳 。
这是因为器件失配的缺陷:在生产过程中 , 芯片里模拟神经元的微型组件大小出现不匹配 。
由于单个芯片不足以运行最新的AI训练过程 , 算法必须在传统计算机上进行预训练 。
但之后将算法转输到芯片上时 , 一旦遇上模拟硬件不匹配的问题 , 算法就两眼一抹黑了 。
文章图片
文章图片
基于人脑设计的计算模式是模拟计算而非数码计算 , 这点差别微妙而关键 。
数码计算只能有效呈现人脑脉冲信号的二元性方面:脉冲信号作为一道冲过神经元的电信号 , 状态具有二元性 , 要么输出了 , 要么没输出 , 这就是0与1的区别 。
文章图片
- 马里亚纳x芯片findx5系列视频算法对比
- 科学家提出量子神经网络的新NFL定理,推动机器学习发展
- 小米自研p1芯片:支持双向导通
- 南芯半导体:小米澎湃p1芯片为小米自研设计
- 汽车芯片价格暴涨,涨幅小几倍
- 存储芯片的黄金时代来了!
- 苹果明年将自研5g基带芯片
- redmik50pro配置曝光天玑8100芯片
- 苹果为自动驾驶功能开发芯片模块和封装
- 苹果新款平板电脑ipadair配置曝光a15芯片