人工智能作为一门由不同学科交叉衍生出来的技性科学,一方面由于计算机科学作为其诞生的技术基础,天然地具备了与其相同的线性与确定的特性,另一方面又由于人们对人工智能寄予模拟甚至超越人的某一方面智能的期望,又需要融入人的和不确定性的基因。这看似相互对立、不可调和的矛盾,在脑科学不断发展的今日,是否会在人们对神经活动以及脑的部分高级功能的生理机制的研究中寻找到一条统一起来的径?脑科学的研究与类脑人工智能的研究是否能够相互借鉴、相辅相成?
麦卡洛克和皮茨在人工智能领域已颇有名气,因为博登将他们的论文汇编入《人工智能哲学》一书,并作为继序言之后的开篇论文,足以说明神经科学(脑科学)在科学技术哲学家心目中的重要地位。而另一位美籍华人科学家,作为中国科学院上海生命科学研究院神经科学研究所所长,蒲慕明博士不囿于自己的专注研究的领域,积极探索脑科学与类脑科学技术之间的交叉研究和融合贯通。他山之石,可以攻玉。正如当代哲学家赖尔所说:明智的漫步者尽管不是不停地却总要偶尔地回头看看,把他所到过的地方同他刚才走过的地方联系在一起思索一下。对于思想家来说,尽管不是不停地然而却总是偶尔地去回顾确定一下他所的思想线和出发点,同样也是明智的。
理论神经生理学建立在某些基本假定上。神经系统是一个神经元网,每个神经元都有一个细胞体和一个轴突。它们的附属部分,或称突触,总是位于一个神经元的轴突和另一个神经元的细胞体之间。神经元任何时刻都有某个阈值,刺激必须超过这个值才能激发起一个冲动。这一过程,除了它出现的这个事实和出现的时间外,都是由神经元而不是由刺激决定的。这个冲动从刺激点到神经元的所有部分。沿轴突的速度与轴突的直径直接相关,变化范围从在细的(一般也是短的)轴突中小于每秒1米,到在粗的(一般也是长的)轴突中大于每秒150米。因此,在确定同一来源的冲动到达不同远程点的时间时,用于轴突传导的时间就显得不怎么重要了。占主导地位的是刺激通过突触从一些轴突末梢到达一些细胞体。这一点究竟是取决于个体突触的不可逆性,还是仅仅取决于大量存在的解剖学构形,仍是一个悬而未决的问题。若假定后者,则无需特别的假设,并且能解释许多已知的例外情况,但是任何关于原因的假定都要与进一步的演算相容。已知这种情况是不存在的:在任何一个神经元中,通过单个突触的刺激已经诱发出一个神经冲动,而这个神经元又可能在小于四分之一毫秒的不易察觉的附加期里,再被数目足够多的相邻突触传来的冲动所刺激。在较长的时间段上观察到的冲动时间累加,在单个神经元里是不可能出现的,这实际上取决于神经网的结构特性。冲动到达一个神经元与神经元本身的冲动之间,存在着大于半毫秒的突触延迟。在神经冲动的开始阶段,神经元对于任何刺激作用都毫无反应。随后,它的可刺激性迅速恢复,在某些情况下达到正常值以上,再从这点降落到低于正常值,然后慢慢恢复到正常。频繁的活动增加了这种低于正常值的特性。这种神经冲动所拥有的特性,仅仅取决于神经冲动的时间和,而与任何别的神经能的特性无关。近来,经过严格论证,只有是与这一理论相抵触的。是神经元的一组活动被第二组并发的或先发生的活动所终止或。这一点直到最近才能根据如下假定获得解释:第二组神经元的预先活动可能会提高中间神经元的阈值,使得它们不再能被第一组神经元所刺激,而第一组的冲动必须加上这些中间神经元的冲动,才能刺激正处于状态的神经元。今天,我们已知某些所耗费的时间小于一毫秒。这就排除了中间神经元而需要突触,冲动通过突触了那个正在被来自别的突触的冲动所刺激的神经元。现有的实验还未表明这一无反应性是相对的还是绝对的。我们假定是后者,并证明对我们的论点来说这个差别是无关紧要的。任何种类的无反应性都可由下列两种方式之一来解释。性突触可能是那种产生提高神经元阈值物质的东西;或者它的可能使它的刺激所产生的局部扰动抵制另外一些刺激性突触所诱发的变化。鉴于我们已知在电刺激场合时也有这种作用,所以在尚未得到之前,我们将排除第一种假设,因为第二种假设不包含任何新的假设。这样,我们就在同一总前提下得到两种关于的解释,不同之处仅在于所假定的神经网,以及由此造成的所需的时间。以后我们把这种神经网作为广义等价物来看待。既然我们所说的网的特性在等价条件下是不变的,我们就可以采用演算起来最方便的物理假定。
很多年前,本文作者之一另辟蹊径,就在这一论点得出这种设想:任一神经元的响应事实上都等价于一个使神经元受到充分刺激的命题。于是他试图用命题的符号逻辑标记来记录复杂神经网的行为。神经活动的全或无规律足以确保任一神经元的活动可以表述为一个命题。神经活动中存在的生理关系当然是与命题中的关系相对应的;表述的功能取决于这些关系与逻辑命题关系的等同性。对任一神经元的每个反应,都存在一个对应的简单命题陈述。而这又意味着,根据当前神经元上的突触构形和该神经元的阈值,或者得出另外某个简单命题,或者得出类似命题的析取或合取,否定形式的,或非否定形式的。两个难点出现了。第一点与助长或消退有关,在这两种变化中先前的活动暂时改变了该网同一部位对后继刺激作用的响应方式。第二点与学习有关,在学习中以前某个时刻并发的活动使网发生了永久性改变,以至于原先不充分的刺激现在充分了。但是对于经历这两种变化的网来说,我们可以代之以假想的等价网,而替代网是由连接形式和阈值都未经改变的神经元组成的。但是有一点必须:我们谁也不认为这个形式上的等价物就是实际的解释。恰恰相反!我们认为助长和消退依赖于阈值的连续变化,它与电变量和化学变量有关,例如后电位和离子浓度;而把学习视为永久性变化,这种改变在入睡、失去知觉、痉挛和昏迷后仍能保持。形式等价物的重要性在于:作为助长、消退和学习的实际基础的变化,决不影响从对神经网活动的形式处理中得出的结论,并且对应命题的关系仍是逻辑命题的关系。
神经系统包括许多环形通,它们的活动可再现任一参与神经元的刺激,因而使得关于经历时间的参照变得不确定了,不过,它仍表明传入神经活动已经实现了一个属于某种类别上的时间上的构形。通过递归函数对这些内在关系作出准确说明,同时确定出那些能够在神经网活动中实现的内在关系,我们就完成了这一理论。
过去50年来我认为对大脑的最重要的理解就是神经可塑性。为什么呢?感觉运动认知行为发生的时候的各种相关的活动有一个作用,这个作用是改变神经元或者突触功能或结构的修饰,这种修饰就叫做可塑性。一旦修饰之后,这个神经系统变成另外一个状态,这个状态就是有了记忆,有了学习,有了认知行为的改变,所以可塑性可以说是所有认知行为的基础,要理解可塑性来源,就是过去这50年最大的进展。
这个进展从什么时候开始的呢?60年前的心理学家赫伯(Donald Olding Hebb)提出了一系列关于电活动怎样造成神经系统变化的。他认为如果两个细胞间多次发生同步的电活动,那么它们突触间的连接就会加强或者说稳固,如果出现不同步的电活动,这些突触就会削弱甚至消失,我们管它叫赫伯学习。比如这两个神经元的电活动是一样的,都有同步的电活动,它们之间的突触就开始增强。那假如这个神经元跟另外的神经元不同步,这个神经元有活动,另一个没有活动,或者被,它们之间的突触就要下降,就简单的这么一个原则,这个原则可以解释各种学习的规律,他这个说法在70、80年代得到了实验:电活动可以造成突触的长期强化或者长期弱化现象,就是我们今天说的LTP(Long-term potentiate)和LTD(Long-term depression)。
LTP和LTD是可塑性的关键,突触可以强化或者弱化。假如使用高频刺激,刺激一秒钟,刺激前突触电位是这么一个幅度,刺激之后一秒钟刺激之后突然上升,这上升的幅度可以维持长时期,就是长期强化现象。使用低频刺激,结果是相反的,效率是下降的,变成弱化现象,为什么这样子?赫伯说高频刺激的时候,他产生的突触电位可以叠加,所以突触后也被激活,所以他叫LTP,但低频的时候,他每一次都不能够激活,突触后就没有活动,所以他不同步,所以他就削弱,这个学习很简单,就这么一个解释。
这个突触是什么状况呢,它其实是产生在轴突终端的一个小泡跟树突产生的一个突起,这个叫树突棘,这个突起在一般的神经细胞有成千上万个,至少几百个,这些突触就是表示说不同神经元来到轴突的输入,但不是都是有电活动,电活动加起来超过预值,神经元整合就放电,就给下一个细胞发出信号。
这个结构很有意思,就是刚才说产生LTP长期强化现象之后培养的海马脑片切片看它的活动就有很多树突棘,你看这个树突棘在LTP在上升,高频刺激,在这个刺激的区域发现有新的树突棘产生。就突起突然出现,在LTP产生之后几十分钟之内有新的构造出现,表示说你这个电活动造成了突触的功能增强,可能包含了新生的突触,新生的连接,这是在发育过程中的现象。但是又发现突触前的轴突的小泡跟突触后的树突棘这个可以长大和缩小,还可以萎缩,萎缩就是表示最后可能消失,表示又减弱,所以这个轴突跟树突之间产生的,它的构造可以改变,功能可以改变,改变传递效率,也可以产生新的突触增强功能。
最近实验室发现在小鼠活体进行学习的过程中,在几天之内产生新的突触,这个突触比如说这里我们看到突触前,我们标记了突触前的轴突跟突触后的树突,这个学习之后突然产生了一个新的树突棘,有了树突棘在那里,突然产生了一个新的突触前的小泡产生,也是一个新的轴突接触点,这种新的突触的产生是在成年的大脑里面也在出现,但是这个出现的频率是远小于发育过程中的。
赫伯这个非常了不起的,解释了可塑性的基础是强化,即由突触强化或者弱化同步活动造成的。赫伯是要理解记忆是怎么产生的,关于记忆他又提出一个。他的是什么呢?就是说我们这个同步的电活动在这个大脑里面由于信息来了之后,强化了一群神经元之间的联系,这些联系之间的强化特殊一群神经元的强化就代表记忆的储存,这是他的。这个什么意思呢?就是记忆就储存在有活动有脑活动的时候那些神经元。这个很有意思,可以解释很多现象。比如我们对于一个圆圈的,每一个细胞都产生,每一段都产生一个神经元的激活,他都是因为这个圆形刺激不断出现的时候,有同步活动,这个同步活动使他们之间连接增强,所以我们就建立了一个赫伯细胞群。这个细胞群建立之后,它之间连接很强,这个细胞群之间关系不一样,有交互作用,理解它们之间是相关的,在这之后只要部分信息刺激它,你就可以通过这部分信息。因为有强连接,使整个细胞群开始重新有活动,所以部分信息可以提取记忆的过程是什么呢?就是部分的刺激造成了整体细胞群的活动。
简单的细胞群的可以进一步的扩充。我说我们每一个人都记得祖母的面孔,因为她的特征都在我们的大脑里面,所以细胞群是造成它们之间连接的增强,所以细胞群建立之后,我们现在只要看到部分信息,比如看到祖母的眼睛就完全回忆起整个面孔。我们说每一个细胞群,而不是一个细胞,可以相互之间建立一个超级细胞群,这个概念叫做细胞集群的集群。超级细胞群是一种嵌套的,可以编码更复杂的信息记忆。怎么解释呢?除了同时出现的整个面孔,我们知道我们还有一个概念,这个概念,不单是面孔。我们记得她的面孔,刚才讲超级细胞群,对祖母还有各式各样的印象,各式各样的信息,包括名字故事、穿的衣服,每一个都是一个超级细胞群,这些细胞群连在一起,因为祖母不断出现,超级细胞群之间也是同步激活,建立祖母的概念,整个概念就是一个祖母的概念。这是一个,这个就是代表概念的各个成分的细胞集群是分布在一个脑区,概念的形成过程是细胞群之间同步放电造成长程环之间的强化。这个概念怎么产生的?看到祖母的名字就想起祖母的面孔,想起其他的东西,部分的集群的放电就引起了整个概念的放电,造成整个超级细胞群的激活。这虽然是一个,但我认为是最好的,不过目前没有人,我们正在努力。检测的过程需要对大量神经元电活动进行观测和调控,这样来决定到底是不是正确的。
赫伯的有一个转折,在20年前就像刚刚讲的人工智能发展一样,每隔一段时间就有一个转折。这个转折是说原来赫伯里面的学习是同步,什么都是同步,这个同步里面什么叫同步?两个放电顺序是怎样,时间是怎样,在原来的中都没有描述。所以后来在很多实验,包括实验室的实验,都需要对赫伯学习进行修正,将其修正成为一个有时序的,涉及突触前跟突触后的神经元电活动的先后--突触前要是比突触后先有电活动就是强化,就是LTP,假如反过来就是LTD,所以Spike Timing Dependant Plasticity ,STDP就是这么来的。
我们实验室最大的贡献就是把这个时间窗口定下来了,就是你突触前的活动必须在突触后的活动之前的20毫秒之内产生,他就可以对突触后的激活有贡献,因为他是一个去极化,有贡献就造成LTP,假如突触后已经有了一个放电,然后输入才进来,这个突触没有贡献,你就得到一个弱化,所以有贡献有强化,没有贡献的弱化,这样子就基本上了早期的同步强化,不同步才是不强化,不同步就在这个地方,时间很远的地方没有作用。这跟奥林匹克比赛一样,奥林匹克比赛的人能力都是相当,都是有些快有些慢,跑的太快的不参加比赛,跑的太慢也没有资格比赛,真正比赛的都是速度差不多的,速度差不多谁赢谁输有竞争,这一群竞争就是比其他的要快的,其他的快的就强化,比其他的弱就弱化,所有竞争性的现象都是有这样的一个规则,大脑的突触改变也是这样子的。这就是赫伯集群有时序性的。这些细胞群都是连在一起开始,但是我们现在假如给一个有序的刺激,这个刺激就是说从前到后不断的,没有反向的,这个结果是什么呢?对这个朝下的连接都增强,因为朝下游的连接都是突触前发放,就是LTP,反过来都是LTD,有时序信息就是在神经集群里面造成的一个有方向性的强化,这个强化之后的结果就是建立有定向的集群。建立这个集群之后,你只要有部分信息,比如在起始区给它一个信息,因为通过强化连接,就可以激活这一群细胞,比如这个做音乐学习,音乐的话只要放前面几个字符,它就后面就出来了,学习音乐网络就是用的STDP,很快就可以出现,这个就是时序信息的好处。在大脑里面有没有这个机制?事实上是有的,在小鼠大脑里面用电极进入皮层里面的细胞群的反应,有序的比如在在试验里面用一个圆圈的球扫过这些细胞群,使他们产生反应,这个细胞群的反应不断的产生,这些细胞群的反应是有序的,先被激活的先反应,每一个圆圈代表细胞群的电活动,不断训练之后,这些大脑里面的连接结果就是说你只要给一个信号,你比较起始初的信号,就会造成连续的放电,起始区跟重点区两边比较,哪一个造成放电,就在起始区造成放电,有序放电可以产生,所以这就是有序信息在大脑里面的储存。
比如16个电极进入细胞群的电活动,开始训练之前一个闪光引起不了什么有序放电,训练过程中这个电极先激活先放电,那个后激活后放电,这就是有序细胞群放电。训练一段时间再用起始点刺激,很多情况下可以看到有序放电,比如这7个尝试之下有5个有序放电,比如有记忆了经过训练之后这个细胞群大脑的细胞群已经记忆了时序信息,这个时序信息就是通过STDP这个方式来学习。
发育过程中的网络形成,很重要的一件事情,人的发育或者很多哺乳动物发育开始出生之后是没有什么网络的,神经元已经出生了,但是之间的网络常少的,所有的网络是我们关键所有认知行为的关键,都是在出生之后建立的,比如两个月之后人的网络,大量的神经网络产生,产生这么多干什么呢,就比成熟的网络还要复杂,为什么呢,他要经过学习把他修成有用的网络,在发育过程中我们看到树突棘,你可以看这是大量上升,刚出生的时候是不断的上升,然后开始慢慢下降,到青年期就开始下降,为什么下降了,下降就说你学习的过程中就是造成网络的修饰。开始的时候小孩子在地上爬都站不起来,所有的运动系统很复杂的网络造成的,通过什么样的强化,哪些东西是正确的网络,他就慢慢的学会站起来会走了,这个网络就被巩固下来,这个是修饰过程,所以网络的修饰在发育期是很重要。这个发育期网络修饰有问题就产生各种问题,自闭症是网络修饰不够,症是网络修饰太大,这是现在的。
事实上,成年期的网络修饰跟发育期是不一样的,成年期有突触新生,但是数目很少,在发育期他可以产生大量的连接出现,修剪常重要的,成熟的时候大脑还是可以变,但是变的是有限,增加几个减少几个,通过学习。为什么要这样子,要有两种不同的可塑性,这是演化的伟大的发现。你要修剪,修剪之后就不能再修剪,经验已经累积到一个程度,你还是要让他可塑性,只有少数的可塑性使他可以记忆学习,早期的经验不可以再修,再修以前学的都忘掉,这是演化过程中的一个出现的机制,就是网络形成过程中跟成熟期的可塑性有不同的规律。
现在讲人工网络,Hopfield人工网络就是把赫伯学习加进去了,每一个连接点都是可以变的,还可以通过赫伯学习来调节。调节之后他的网络就可以记忆学习,一群突触就代表一种记忆,可以储存多种记忆。另外一个重大发现就是我们说的BP的出现,BP的出现就是很简单的,也是神经科学带来的一个信息,神经科学在运动学习的过程,就是我们说学习丢东西,我们为什么越学越准?原因就在于调节我们的小脑的网络。学对了使它维持不动,有错误要修正,由结果来反馈你的网络,其实就影响了BP的出现,所以我们说这两个重大的突破都是脑科学一个非常简单的概念造成的重大的突破。在80年代的时候我们常常看到会说话的网络,简单的三层网络里面输入各种英文单词,然后还有输出各种发音,你就让他不断地学,这个其实不需要很大量的学习网络就会有没有见过的字,就可以出现新的准确发音。开始就像小孩子一样,输出不对的时候就把输入改一点,对的就不变,一层一层往上改,最后改出来的突触造成网络非常准确有效的会说话的网络。像这种非常令人吃惊的人工智能发展,这个在80年代末期是达到高峰。你在外面的输出有变的时候,你要改变输入的效率,这个你就是要从输出改变输入,信息是从输入到输出这个方向,你怎么把输出的信息传到输入,你用数学的算法来做这不合道理,神经系统没有这个机制。
我们在组织培养一群细胞,事先有连接,就记录四个细胞,他们之间有大量的连接,每一个都跟每一个几乎都有连接,有16个连接,但是这16个连接就有16个连接点,其实只有9个连接点是有电活动,然后我们就说现在要把其中的一个连接点改变强度,看他有没有影响其他的连接点,比如我们把这个连接E1到E2的连接增强,LTP出现了,突触电位增强,但是观察了在9个连接里面,有4个其他的连接也增强了,这个连接增强也造成其他的连接增强,所以他就有一个扩散,这是什么规则呢,我们就研究发现这个规则,所以我们就很高兴的很兴奋的写了一篇文章,这篇文章就是发表在1997年的Nature,题目叫做Propagation of activity dependent-synaptic depression in neural networks。
这个文章创了两个记录,第一个就是Nature长文,有10页纸长,另外一个记录就是这篇文章是引用率最低的文章。这为什么呢?我们做这个实验,没有人知道为什么做这个神经,神经科学的人看到这个他不知道这个结果有什么用,人工智能不读生物科学的文章,所以它的引用率是最低的,到今年现在慢慢开始上升了,我希望大家对这个重视,花了10年功夫LTP跟LTD反向跟侧向是存在的,比如说你在这个结点,输入到输出,你发现LTP跟LTD的回头自己本身传递到他的输入,他输出是错误的,是LTD输出是LTP,这个不会往下传,这个现象呢我觉得是相当有意思的,是不是我们现在学习就网络上学习就是这样的一个机制,就自己可以传递。
第一个特性,我们现在的人工神经网络里的节点没有种类之,我们所有的单元都是一样的,但是神经系统的关键就是性的神经元,没有性神经元很多功能就无法出现。性的跟兴奋性的神经元还有亚型,不是说每一个单元都是同样的性质,有些单元对高频信号有输出反应,对低频没有反应,亚型有各种信号传递的特性,这是更进一步的分析,所以这就是未来人工智能可以加进去的。
第二点是说在神经网络里面有顺向的(现在都是顺向的网络),但是也有逆向的网络也有侧向的网络,这都可以是性也可以是兴奋性联接。局部网络里面最关键三种网络,一种是Feedback网络,神经元被激活之后自己轴突输出到旁边的性神经元回来自己,所以它有控制,不是无不断的高,是可以高幅度的电活动,也有Feed-forward,除了输入兴奋性神经元,同样的输入到旁边的性神经元,通过延迟这个信号神经元,还有旁侧的,把神经系统一连串的信息尖锐化,因为有一个性延迟,所以开始的时候有信息,后面一连串的信息把后面消掉,所以就时间变的更准确,可以强化中间这个被刺激的神经元,通过侧向的使旁边的下降,这样子可以突出该强化的通,不该强化的通压下去,这些都是性神经元造成的。
第三类是最重要的一类,可以借鉴的就是神经突触可塑性,有功能的可塑性,就是效率的增强或减低LTP跟LTD,这是我们最常见的。今天我们说到增强跟削弱的规律是什么,依赖突触前后电活动的频率决定LTP或LTD;但也可以依赖时序,就是突触前跟突触后的电发放顺序;还有一个就是结构可塑性,就是这个突触尤其在发育过程中有新生的有修剪,这个连接是可以变,现在是不可以变,只可以变突触权重,但不可以变联接,在计算所的实验室已经把这个联接可变性加入进去发现有很大的功能,还有一个就是可塑性的,LTD的是我们的BP的来源,但是LTP为什么不可以,为什么一定要指定,可以有自己的逆向、侧向,而且是可以自发的,不需要指令的神经元自己的有序的来进行突触的变化。
第四类,记忆储存、提取与消退,记忆是怎么回事呢,就是突触群在记忆或者其他记忆激活的时候之间联接增强或者结构修剪,就是在进行处理的网络上的储存,他这个储存的修饰在神经系统里面随时间消退,LTP、LTD不是长期的,你来一次的话过一阵子几十分钟之后就不见了,这是有道理的,不是所有的突触都可以强化,都可以弱化的,这样子的话没有意义的信息,所以他有遗忘,这个短期记忆长期记忆是同样的网络可以进行,这个短期记忆就是可以消退的,有规则的重复性有意义的信息他可以把这个网络之间突触之间的强化和弱化为长期的变化,结构上的变化,这就是神经系统的机制,记忆储存是什么,就是在这个网络使部分突触群的活动在线,就可以把这个记忆提取出来,最后我们强化学习,通过输出信息增强或减弱来修改跟这个功能相关的突触群的修饰,通常在神经系统里面,他的指令是什么,是另外一种神经元,现在是用算法来做这个强化,但事实上神经网络里面可以加入特别的神经单元来做这个功能。
最后就是赫伯,最有兴趣的一个集群概念,这个赫伯神经元集群概念,就是嵌套的集群,可以用来做图像的记忆,做概念的形成,这都是嵌套式集群,加入STDP之后可以变成时序,包括语言信息的储存也是嵌套的,集群怎么形成,就这个句子出现的时候产生的集群,这个集群跟另外一句话的集群不一样,同样的一个字一个语句,在不同的句子里面意义不一样,就是因为不同的集群里面他产生了连接,所以这个集群可以把多成分多模态的信息放在一起,视觉的、听觉、嗅觉的,都可以连在一起,不同模态的信息在网络的不同区域处理,在神经网络里面自然网络里面把这些怎样不同模态的信息呢,他就是用同步活动,同步的活动震荡,这个同步的震荡在不同区域同时震荡,或者震荡有一个相差,一个先一个后,这也是同步来各种集群,输入信息,在神经系统很重要的是图谱,视觉系统不是乱输入,而是有图谱,有些图谱结构已经用在人工网络里面已经开始使用了。
脑科学与类脑人工智能的协同发展也是我们未来的前景,强调相互共同支撑、相互促进、共同发展,我是看到人工智能这个BP的出现,了我在自然网络追寻有没有BP自然的出现,不需要指令的出现,发现有这个现象,现在那个现象发现之后还没有回馈到人工网络,所以我说假如再回馈到人工网络,在人工网络里面也可以发现这个很有用,我们就是脑科学跟人工智能结合的一个最好的例子。脑科学的用在人工网络上,这个反应过来也是可以的,为了有效结合这两个领域,中国科学院去年成立脑科学智能技术卓越创新中心,这个中心跟一般的中心不一样,我们真的是在一起工作,这种联合是我们未来哪一个国家的人工智能跟脑智能的融合协同发展进展最好,那个国家就最有前途,希望大家未来关心脑智中心的发展。返回,查看更多
推荐:
网友评论 ()条 查看