阅读302 返回首页    go 机器人


人工智能是否会超越人类智能?那要看计算程序能否产生意识

探究计算程序能否产生意识

作者:孙玉涵

近年有关人工智能是否会超越人类智能的讨论可谓如火如荼,其中涉及的一个重要问题就是:计算程序能产生意识吗?

科学哲学家希拉里·普特南提出计算功能主义,主张心理状态就是由适当物理载体实现的计算程序,同样的计算程序可以在不同的物理载体上运行,因此由不同材料构成的物理系统可以具有同样的心理状态。意识状态属于心理状态,从而也能由计算程序产生。对计算功能主义的一个重要反驳是“普遍实现”问题。原则上,同样的计算程序可以在无限多的物理载体上实现,在同一个物理载体上也可以实现无限多的计算程序。如果心灵等同于计算程序,那么心灵将会无处不在,而且同一个大脑将拥有无限多的心灵,这十分荒谬。不过,计算功能主义可以增加一些限制条件,主张只有在具有特殊因果力的物理材料上运行的计算程序才能成为心理状态,满足特殊条件的心理状态才能成为意识。

还有一些着名的思想实验如“颠倒光谱”、“僵尸论证”和“中文房间论证”等都致力于否定计算程序产生意识的可能,但计算功能主义者也纷纷提出各种理由捍卫其立场。人工智能预言家雷·科兹韦尔指出,很多关于计算程序的讨论过于关注串行的、离散式的符号处理技术,这确实很难产生意识,但是未来的计算机却可能依赖于完全不同的技术,例如巨量并行处理、混沌突现、量子计算、神经模拟等。总之,前人对计算程序能够产生意识的反驳并非决定性的,许多学者继续努力探索着意识的计算理论。目前这方面比较有影响力的理论有:由伯纳德·巴尔斯、斯坦·弗兰克林发展出的“全局工作空间理论”,由希蒙·埃德尔曼、托马尔·费克特等人发展出的“状态空间几何理论”,由朱利奥·托诺尼、大泉匡史等人发展出的“信息整合理论”。这些理论试图用计算的术语来解释意识,基于这些理论所建构的具体计算模型可以在一定程度上量化地解释和预测某些意识现象。

“全局工作空间理论”的特点是能够说明人脑的大量并行处理过程中的大部分是无意识的,只有少部分能够进入意识且时刻在流动变化。该理论把认知系统视为一个分布式工作网络的集合体,而意识则是一种稍纵即逝的记忆能力,这种记忆在任何时刻都具有占支配性地位的特定内容或信息,该信息是广泛分布于(或者说“广播于”)整个认知系统中的。基于该理论设计出了“学习型智能分布主体”(LIDA)模型,该模型的基本单元是“认知循环”,每个认知循环包括感觉、注意和行动选择三个阶段。主体频繁地从其环境中获取信息(感觉)然后加工这些信息,通过更新对外部世界和内部世界的表征尽可能理解其当下情境;由无意识的各局部网络所加工的信息相互竞争,其中一部分表征情境的信息获得胜出而进入主体注意的范围,这成为意识的内容并被广播到全局网络;依据广播的内容主体最终选择出一个适当的行为反应并执行它。高阶认知过程是由许多这些认知循环组成的,而所有这些认知循环的连续序列就构成了认知主体的生命过程。需注意模型中不管是无意识的还是有意识的阶段都是由关于神经—生物过程的算法所描述的,原则上类似的算法也可以在机器上运行。

“状态空间几何理论”则强调意识经验是在时间中展开的,因而首要关注的是认知过程的动态性。认知系统在某个时刻的状态对应状态空间中的一个点,而认知系统在一段时间中的变化过程就会对应状态空间中的一条运动轨迹,该理论的基本分析单元就是动力系统的轨迹。轨迹的特定结构对应于意识经验的产生,没有这种结构也不会有意识。具有不同内容的意识经验对应不同形态的结构,而意识经验的丰富程度则对应结构的复杂程度,粗糙的结构反映着经验内容中高阶的抽象范畴,精细的结构反映着经验内容中低阶的具体范畴,不同轨迹间距离的远近反映着经验内容的相似程度。于是意识现象转化成了状态空间中的几何学,可以用数学方程来刻画。

“信息整合理论”是从意识现象的组合性、信息性、整体性和排他性出发的。所谓组合性是指每个经验内容都是由多个方面组成的,例如某人可以同时看见左边的一个红色三角形和右边的一个蓝色正方形;信息性是指每个经验都以其独特的方式区别于其他可能的经验,从而是提供信息的;整体性是指每个经验都是不可还原为独立的成分的,例如看见一个红色三角形不可还原为看见一个非红色的三角形加上看见非三角形的一团红色,该经验是一个整体;排他性是指在任何给定时间只有一个经验具有其完整的内容,而不是多个经验的叠加,并且每个经验具有确定的边界,只有某些事物能被经验到而其他事物不能被经验到。接着,该理论界定出相应的条件,构成认知系统的物理机制必须满足这些条件以说明意识现象的各种特征。分析的基本单元是诸如神经元或逻辑门这样的单个“机制”,组合性要求单个机制之间可以组合成高级的机制系统;信息性要求机制或其系统能够选择出特定的因果信息提供给意识;整体性要求机制或其系统只有选择出一个不可还原为独立成分的因果信息才能将其提供给意识;排他性要求一个机制或机制系统一次最多只能提供一条因果信息给意识。最后,意识经验的现象性质与物理系统的信息/因果性质之间通过某种同一性贯穿了起来,基于具体的物理模型进行计算可以得出关于意识的重要结论,即认知系统的复杂与活跃程度同意识的有无之间并没有直接的对应关系,真正与意识的丧失和恢复相联系的是信息整合的崩溃与恢复。该结论符合针对大脑的经验研究,例如小脑的神经元比大脑皮质层的神经元更多,然而意识却没有在小脑产生而是在皮质层产生;有时候虽然大脑的神经活动保持活跃(睡眠、癫痫等),人却已经失去意识。理论上这些结论也将适用于可能的人工智能系统。

以上理论有个共同点,就是先考察意识经验所具有的某些特征,然后以这些特征作为约束条件,寻找能够实现这些特征的物理架构及其因果过程,接着对这样的物理架构和因果过程进行量化的数学刻画。诚然,作为意识理论,它们恐怕仍然未能解决意识的“难问题”,即何以从客观物理状态中产生出具有主观感受性的意识。但对于计算程序能否产生意识这个问题而言,其关键在于意识状态与特定的功能状态是否存在直接的对应关系。假如这种对应关系存在,那么计算程序产生意识便存在其可能。意识的计算理论还有很漫长的路要走,但这是个充满活力的方向。

(作者单位:中山大学哲学系)

来源:中国社会科学网-中国社会科学报

最后更新:2017-10-08 00:05:44

  上一篇:go 机器人集成系统供应商宝佳:盯住痛点成长
  下一篇:go 未来民机、3D打印、大数据、人工智能,首届COMAC科技创新周开幕!