何时能赶上人类大脑?机器与人脑在学习机制上的比较分析

作者:张小东 责任编辑:王鹤迦 2024.08.28 11:32 来源:天翼智库

通信世界网消息(CWW)2024年,多路径的技术创新正在驱动AI学习机制越来越像人类大脑,主要突破包括通过“子采样-升采样-旁路”大型语言模型大幅加快机器学习效率,通过图神经网络模型如GNNs等能有效消除大模型幻觉,采用神经算法推理器如NAR等可提高AI推理稳健性,通过类脑计算信息处理模式构建了新型芯片和算法一体化结构等。可以说,机器学习一直在缩短与人类大脑学习的差距,但是什么时候才能真正赶上甚至超越人类大脑,这需要从两者学习机制差距上寻求有效答案。

近年来,人类大脑学习机制不断得到部分厘清

人类大脑神经的可塑性是人类学习和产生记忆的基础 

长期研究发现,大脑神经可塑性是人类开展学习和记忆活动的基础。人类大脑通过化学反应、物理变化、神经元再利用、海马体主导以及多巴胺等多种神经递质共同发生的复杂活动构成了我们获取新知识和行为习惯的能力。

 大脑神经元活动产生多种用途记忆 

人类的学习和记忆活动可以概括为“人脑对一手经历和二手资料,通过辨识、分类保存、以后再现用于判断的完整过程”。记忆是人脑一切高等级思维活动的基础,也是衡量一个人智力水平的重要指标。人类记忆的形成在微观颗粒度上是大脑内部不同区域的神经元群周期性地同步激活的过程。日本东北大学研究发现,学习形成记忆有两个平行过程,一个发生在训练期间,称为在线学习,而另一个发生在休息期间,称为离线学习。

大脑计算采用双加工系统 

根据双加工理论和沃森等实验,人类大脑思考系统分为两类,分别是直觉系统和理性系统。其中直觉系统自主运行、简单高效,极少占用认知资源,依赖人脑长期记忆和经验,受情绪驱动,很难受到控制或修正;理性系统通常处于放松阶段,启动以后需要通过生成工作记忆进行有意识的逻辑推理,耗费资源但出错率低。人类在需要进行决策的时候,长期记忆可转换为工作记忆,其中工作记忆是指人类大脑对正在接收的信息进行瞬时及有意识加工的部分,与各种认知功能密切相关,如阅读理解、语言交流、学习和推理等,在知觉、长时记忆和动作之间起到接口和工作台的作用。

 大脑决策质量的提升需要通过长期学习和思考 

与理性系统相比,直觉系统思维存在多种“陷阱”,如幸存者偏差、光环效应、锚定效应等。因此,人类大脑要进行高质量决策,可行提升途径包括两类。一是通过增加长期记忆储备的方式来提高直觉思考系统的准确率,二是通过增强认知的方式主动进行理性系统思考,减少对直觉思考系统的依赖。这两种提高决策质量的途径都需要人脑保持持续地学习与研究,通过多次神经元信号反复刺激,加强已有的神经元连接并在连接神经元外围使用髓鞘脂进行包裹,增强认知、增加长期记忆储备、强化海马体的检索和定向功能(记忆巩固)。

机器的学习机制及其演进

传统机器学习适用于数据特征较为明显的场景 

机器学习是指通过识别训练数据集的特征来不断建模、优化算法最后形成有效模型的方法,其特点是需要大量的标记数据来进行训练,可以类比人类的逻辑学习过程。强化学习关注的是智能体在特定环境中采取合适的系列行为,更为接近人类逻辑思考的本质,主要应用在数据特征较为明显、逻辑性强的交通指引、策略游戏、广告推荐等领域。

深度学习技术适用于复杂真实环境的机器学习 

深度学习是机器学习的一个子领域,其基本原理是通过构建和训练多层神经网络进行非线性变换,捕捉复杂真实环境的特征和模式,从而实现对复杂现象的建模和学习。深度学习模型在处理非结构化数据(图像、视频和声音等)的效率和应用效果更强。2006年深度神经网络出现以后深度学习机制开始加速成熟,2014年深度学习框架的出现大幅降低了深度学习的使用门槛,2023年GPT等大型预训练语言模型的出现又再次显著增强了深度学习的语言理解和生成能力。

深度学习模型可以用来处理高维数据,自动提取特征,能够满足机器复杂决策任务。例如,DeepMind团队提出的DQN(Deep Q-Network)算法,通过深度神经网络来优化Q学习值函数,实现对复杂环境的有效应对,目前已经在金融交易、机器人控制和自然语言处理等领域取得了显著成果。

“深度学习+强化学习”成为机器学习重点演进方向 

深度学习和强化学习的结合,即深度强化学习(Deep Reinforcement Learning,DRL),是近年来机器学习的重点突破方向之一。深度学习非常适合解决非结构化的真实世界场景,而强化学习能够实现较长期的推理(longer-term reasoning),同时能够做出更好更鲁棒的决策。二者结合能够让机器人从自身经验中不断学习,使得机器人能够通过数据,而不是人工手动定义的方法来掌握运动感知的技能。

目前,通过深度分层强化学习(DHRL)、Transformer架构改进强化学习算法(TRL)等方法,可以进一步显著提升智能体的学习能力和适应能力,协调多智能体达到最优整体性能。

类脑计算机制不断向人脑运作机制趋同 

类脑计算(Brain-like Computing)机制是指借鉴生物大脑的神经元与突触之间的连接方式,基于神经形态工程的计算理论、体系结构、芯片设计以及应用模型与算法,通过软硬件结合,实现高效、低功耗的模拟人脑的信息处理方式。

类脑计算在机制上不断地与人类大脑趋同,具有如下特点。第一、存算一体,类脑计算模型的数据存储与计算过程在同一位置进行,这是模拟工作记忆的平台作业方式;第二、采用事件驱动机制,这是借鉴神经元接收到足够强度的信号时才进行计算机制。第三、高度并行运算,这是参考每个神经元可以独立处理信息。第四、自主学习与动态调节能力,类脑计算系统具有自主学习能力,并能根据外部环境的变化进行动态调节,从而提高系统的适应性和鲁棒性。

机器学习能否赶上人类大脑?

根据雷·库兹韦尔利用摩尔定律进行的推算,到2029年,机器学习将拥有与人类大脑相同的处理能力,到2045年,人工智能将达到技术奇点,能够以远超任何可以想象的速度改进自己。未来人类很有可能和智能体走向合体方向,即成为Cyborgs。马斯克在2024年也表示,按照当前的技术进步速度,到2030年人工智能的智力可能超越人类,超级智能可能产生“奇点”。

事实上,机器学习要达到人类大脑水平还面临一些关键性的理论基础和技术挑战,主要集中在以下几个方面。一是人类对大脑神经工作机理的认知还在不断地刷新,大脑远比我们想象得更为复杂1。例如多巴胺对人类学习和记忆能力的刺激作用和奖励预测误差机制、海马体与大脑新皮层进行记忆交流的尖波涟漪效应、大脑通过DNA损伤和修复来促进长期记忆以及杏仁体对情绪性长期记忆的形成机制等领域的研究还才刚刚起步。二是类脑智能运算机制从理论上还不能全面解释自然智能的产生和原理,在复杂应用场景下难以推广应用。另外,其实用化芯片运算规模与人类大脑的千亿神经元级别相去甚远、算法精准性和能效指数仍有很大提升空间。三是深度强化学习模型仍存在诸多局限性。例如,深度神经网络模型的表达能力有限、幻觉轮廓识别能力不足、缺乏比拟大脑的创造性思维和灵活性等。

从现实技术发展趋势来看,截止到2024年,机器学习多个路径的技术创新都在驱动AI学习机制越来越像人类大脑,特别是大型语言模型的普遍应用和大模型框架的改进使得机器学习能力加快进化。一是新型大模型框架使得机器学习的效率不断提升。如小米大模型团队提出的新型大模型框架SUBLLM(子采样-升采样-旁路大型语言模型),借鉴人脑信息处理机制而设计,在训练和推理速度以及降低内存方面都有了显著提升,显著加快了学习过程。二是图神经网络等技术应用有效破解AI幻觉问题,机器思考准确性更高。如Alembic提出具有时间和因果意识的新型GNNs,充当因果推理引擎,组织成类大脑神经元的复杂节点和连接网络,捕捉事件和数据背后的“原因”来精准指导未来行动,提高模型结果的可靠性。谷歌DeepMind也将Transformer的语言理解能力与基于GNNs的神经算法推理器(NAR)的稳健性相结合,实现更泛化、稳健、准确的LLM推理。三是通过对大脑信息处理机制的理解和模拟,类脑计算能效指数不断提高。如清华大学推出的神经形态计算架构Dendristor,模拟了树突状结构及其固有的时空处理特性,为未来人工智能提供了高能效的视觉感知能力和信息处理能力。另外还有基于SNN原理(Spiking Neural Networks,脉冲神经网络)打造的液态机(LSM)也在不断地发展。

预计未来数年,人类大脑的兴奋性和抑制性神经元的配合机制将被融入到新一代高效脉冲神经网络模型中,脉冲神经网络得以与深度神经网络融合,SNN的低能耗高效率优势和DNN的复杂任务处理优势实现“1+1>2”,生物形态的机器人将逐步实现生物系统稳态维持和环境抵抗干扰能力,具备低能耗、自组织、高鲁棒性和高认知能力,机器将会从形态上和思维模式、思维能力上越来越像人类。

通信世界网版权及免责声明:
1、凡本网注明“来源:通信世界全媒体”及标有原创的所有作品,版权均属于通信世界网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、凡本网注明“来源:XXX(非通信世界网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。
发表评论请先登录
...
热点文章
    暂无内容