解决网
首页 > 资讯教程 > 智能科技 > VR虚拟现实 > 类脑智能,迈向通用人工智能新可能?

类脑智能,迈向通用人工智能新可能?

作者: 来源: 2021-07-12 22:10:17

如今,第三次人工智能浪潮的兴起已经是一个不争的事实。我们知道这一次的人工智能浪潮不仅仅是一次技术的创新,更是一场产业的变革。机器学习,特别是深度学习等算法的突破、算力和数据的井喷,让AI技术已经广泛应用在社会生产生活的众多领域。 不过从这一轮AI变革的实质来看,深度学习算法依然是一种数据驱动的一种模拟计算,目前仅仅在语音、图像、文字识别等感知领域有着较强的应用,距离人类更加复杂的因果推理、假设联想等高级认知能力还有很远距离,甚至有着本质的差别。 在从当前弱人工智能通向强人工智能,以致于通用人工智能的道路上,学术界正在推动以类脑智能和类脑计算为方向的新的研究方向,来实现由弱到强的人工智能的升级。 刚刚结束的2020世界人工智能大会(WAIC)上,来自复旦大学类脑智能科学与技术研究院的林伟教授在“认知智能,改变世界”行业论坛中提到,“类脑智能已成为人工智能跨越式发展的突破口。” 类脑智能和类脑计算到底是什么,与现有经典计算和当前的AI技术有哪些不同,是否真的能够担此“跨越式”的重任?面对如此多问题,这次我们就来一探“类脑智能”的究竟。类脑计算:打破冯·诺依曼架构禁锢 实现类脑智能的前提的实现类脑计算。在了解类脑计算之前,我们简单聊下现在主流的计算机架构——冯·诺依曼架构。 众所周知,现有计算机都是基于“冯·诺依曼”架构实现的,其处理器工作原理就是按分时复用的方式,将高维信息的处理过程转换成时间序列的一维处理过程。这一计算架构的特点是计算与存储分离,结构简洁、易于实现高速数值计算。 不过,冯·诺依曼架构在处理包含非结构化、时空关联信息的感知、认知以及决策等相关问题时,表现出效率低、能耗高、实时性差等问题,甚至无法构造合适的算法。比如当今最先进的计算机,也难以完成一只昆虫能够轻易实现的环境感知与适应等相关任务。 而人类大脑却是一个与冯·诺依曼架构正好相反的“计算器”,虽然人脑不擅长高速率大规模数值计算,但是人脑可以在有限尺寸和极低能耗下,完成复杂环境下的信息关联记忆、自主识别、自主学习等认知处理,实现这一“计算”的基础正是脑神经网络的多层次复杂空间结构和脑神经的高度可塑性。 基于人脑的这些特点,科学家们提出非冯·诺依曼架构的类脑计算,就是借鉴大脑神经网络,存储计算一体化,将高维信息放在多层、多粒度、高可塑性的复杂网络空间中进行处理,使其具有低功耗、高鲁棒性、高效并行、自适应等特点。 类脑计算既适用于处理复杂环境下非结构化信息,又有利于发展自主学习机制,甚至最终有望模拟出大脑的创造性,实现类脑智能,这种更具通用性的人工智能。 我们回过头来再看推动当前产业智能变革的AI技术。深度学习是在一定程度上对人类神经网络结构进行的模拟,但其过程要依靠现有的经典“冯·诺依曼”架构的计算方式,使用优化问题建模并求解,其实质仍然是按照分时序列的计算,所以会呈现出算力要求高、数据计算量大的特点。 现有的人工智能技术大多数能够处理的问题具有以下特点:1、充足的数据;2、单一、确定的问题;3、完备的知识;4、静态。因此为一个问题提供一个解决方案,使得现有的人工智能仍然属于弱人工智能的范畴。 当我们要处理超出这些条件的复杂问题的时候,现有AI技术就会遇到困难,而我们就需要更具人类智能特点的通用人工智能(AGI)。 类脑计算以及由此产生的类脑智能,就是人们为实现AGI的方法之一。“旧神退散,新神未立”:类脑智能正在路上 2017年计算机图灵奖的得主大卫·帕特森和约翰·轩尼诗表示说,“未来十年是计算架构发展的黄金十年。” 当前,传统计算架构的“旧神”正迎来挑战,全新计算架构的“新神”尚未确立,而类脑计算正是试图争夺全新计算架构的“新神”之一。 冯·诺依曼和图灵当时已经提到计算机要实现对于人脑的模仿,但由于经典计算更加易于实现,因此朝着“摩尔定律”规定的方向一路狂奔。而麦卡洛克等人在1943年提出单个神经元计算模型,可被认为是最早的仿脑研究,而到了七八十年代,部分学者开始关注采用更接近于生物大脑系统的计算机制的研究方法。 1990年,美国加州理工大学卡弗·米德教授尝试用硬件电路来模拟神经网络,提出了“神经拟态计算”的概念,并将其定义为“采用以模拟器件仿真生物神经系统的VLSI来实现大规模并行的自适应计算系统”。 “神经拟态计算”正式开启了类脑计算的研究和实践。类脑计算主要以“人造超级大脑”为目标,借鉴人脑的信息处理方式,模拟大脑神经系统,构建以计算为基础的“虚拟人脑”。 Nature在2016年提到,类脑计算成为后摩尔定律时代极具潜力的发展方向之一,成为继第一阶段的GPU,第二阶段的ASIC加速器之后,在推动AI的计算上面发挥巨大潜力。 现在,全球主要发达地区的国家、高校和技术公司都已经摩拳擦掌,纷纷开始类脑计算和类脑智能的研究。 日本在2008年就提出了“脑科学战略研究项目”,重点开展脑机接口、脑计算机研发和神经信息相关的理论构建;欧盟在2013年提出“人类脑计划”(HBP),重点开展人脑模拟、神经形态计算、神经机器人等领域研究;美国也同时启动了“BRAIN计划”,将大脑结构图建立、类脑相关理论建模、脑机接口等列为研发重点;韩国在2016年发布《脑科学研究战略》,重视脑神经信息学、脑工程学、人工神经网络、大脑仿真计算机等领域的研发。 全球顶尖高校和技术公司也加入了类脑计算和类脑智能的布局。IBM推出了TrueNorth类脑芯片,试图抢先打造类脑计算系统;受欧盟脑计划支持的英国曼彻斯特大学和德国海德堡大学研发的神经拟态计算系统,分别推出了SpiNNaker 芯片和BrainScaleS 芯片。 此外,像微软提出了意识网络架构,声称是具备可解释性的新型类脑系统;谷歌在现有谷歌大脑基础上结合医学、生物学积极布局人工智能。 我国积极加速类脑智能计划。比如我国在2016年《“十三五”国家科技创新规划》也将脑科学与类脑研究列入科技创新2030重大项目。2017年国务院《新一代人工智能发展规划》提出,2030年类脑智能领域取得重大突破的发展目标。在2017、2018年,我国分别成立了类脑智能技术及应用国家工程实验室、北京脑科学与类脑研究中心,形成了“南脑北脑”共同快速发展的格局。 当然,现在类脑计算的发展仍然处在初期的探索阶段。 正如我们上面提到的欧洲“人类脑计划”,就在去年曝出耗尽10亿欧元之后,试图“完全模拟人脑”的计划并没有取得计划中的进展,并没有做出突破性的研究成果。 不过,这一通过传统计算方式来还原大脑结构的方式的失败并不能证明类脑计算行不通,反而更加说明了通过全新的计算架构来模拟神经网络的计算方式的根本性转向的重要性。迈向AGI,类脑智能提供新可能 在通向通用人工智能的道路上,类脑智能已经被认为是最有希望的方案之一。 与经典技术中,将多维度信息转化为一维的数值计算的信息流,以提高单位时间的运算速度这一提高时间复杂性的计算方向不同,类脑计算更强调模拟人脑的复杂的神经元连接架构(不是直接还原神经元的连接),把多维世界中的信息扩展到更复杂的空间中去,利用空间的复杂性来解决计算问题,甚至同时利用时空的复杂性,来解决计算问题。 所以,集成众多神经元数量、突触数量以及存算一体的神经元处理单元数量的类脑芯片,为完成仿真或模拟提供计算、存储、通信等基础硬件支持,是实现类脑计算的关键因素。而构建类脑计算芯片的阵列集成系统,是目前国际通行的大规模类脑计算系统的技术路线。 比如,今年3月,英特尔用768个Loihi芯片构造了一个新的神经拟态研究系统Pohoiki Springs,达到了1亿个神经元的规模,比上一次构建的系统Pohoiki Beach的64个芯片800万个神经元,扩大了12倍的规模。 类脑计算芯片作为实现类脑通用人工智能的硬件基础,既是神经科学模型的仿真平台,又是新计算范式、新体系结构的原型。这一点从清华大学的天机芯片的研究成果中,也得以清晰的体现。 去年8月,清华大学开发出全球首款异构融合类脑芯片,被命名为“天机芯”(Tianjic),相关论文《面向通用人工智能的异构天机芯片架构》作为封面文章登上了Nature。 这一异构融合芯片配置有多个高度可重构的功能性核,可以同时支持机器学习算法和现有类脑计算的算法。相比于当前IBM推出的TrueNorth芯片,新一代“天机芯”功能更全、灵活性和扩展性更好,密度提升20%,速度提高至少10倍,带宽提高至少100倍。 去年,在清华大学操场上,由这一类脑芯片支持,实现自动驾驶的一辆自行车更是成为AI圈“刷屏”的网红车。这辆车仅用一个芯片,就可以在无人驾驶自行车系统中同时处理多种算法和模型,实现实时目标检测、跟踪、语音控制、避障和平衡控制。 从天机芯片结合计算机科学和神经科学两个主要方向,发展而成的融合计算平台,成为现在实现类脑计算的较好的解决方案,为学术界贡献了一种通向AGI的新发展思路。 现在,类脑计算目前还没有统一的技术方案。在当前学术界提供的实现方案中,有采用数模混合实现的 Neurogrid 和 BrianScaleS;有异步纯数字实现的 TrueNorth、Loihi;有采用同步纯数字实现的天机等等解决方案。 在实现通用人工智能(AGI)的道路上,主要有计算机科学导向和神经科学两大方向而将二者紧密结合可能是当下来看的最佳实现方案。 超级计算机的发展能够带给科学家更好推进计算模拟的进程;互联网、大数据和云计算的发展可以构造一个无比复杂的数字世界,可以形成与数字大脑类比的复杂镜像世界。而由于新的测量技术和纳米材料等基础技术的发展,又正在逐步揭开人类大脑的结构和运行原理,并且为我们开发出高效能、高密度的芯片器件提供了基础。 而这些正在构成发展类脑智能的基础条件,也是未来通向通用人工智能的有利契机。
返回顶部