刘晓力教授做客思勉“前沿技术的人文维度”高端讲坛

发布日期: 2021-05-06   作者:  浏览次数: 277

2021423日,中国人民大学哲学与认知科学交叉平台首席专家刘晓力教授受华东师范大学思勉人文高等研究院之邀,出席“前沿技术的人文维度”高端讲坛第六讲,并作题为“哲学与认知科学的双向挑战”的讲座。讲座由华东师范大学哲学系教授,思勉人文高等研究院院长郁振华主持。


讲座主要分为两个部分。第一部分题为“认知科学元勘”,第二部分题为“智能机器可以有情感和道德吗?”。在讲座中,刘晓力教授讨论认知科学与哲学在60余年的发展中如何形成一种双向挑战效应,对认知心理学、脑神经科学和人工智能三条路径中的困难进行重点考察,聚焦于智能机器的情感与道德问题。在此基础上着力探讨如何拓展哲学在当代认知科学研究中的问题域,展现心灵哲学家和现象学家在认知科学的旗帜下协同共进的未来可能,并力图推进哲学家和认知科学家进行跨学科对话与合作的现实途径。

第一部分由如下三个问题展开:1、认知科学与哲学的双向挑战效应;2、三条分殊路径的困难;3、认知科学前路如何?

1956年人工智能产生与乔姆斯基反对激进行为主义的认知革命起,认知科学与哲学之间既形成了双向挑战态势,又构成推进学科发展的效应。从80年代开始,理论情绪已经从最初的人工智能符号主义、信息论、控制论转移到包括功能主义与物理主义在内的联结主义。80年代后期以来,以广义的涉身性观念为核心的各种路径成为学术讨论的焦点,理论领域宽度也从最初诸如大脑、身体、语言等单独主题逐渐扩展到强调主动与交互的认知主体,进而发展出认知科学中新大一统理论的倾向。刘晓力教授认为,这些观念将为思考人类经验的本质与形式开辟新的空间,通过对强调预测与对预测可靠性的评估,为情感与有意识的经验在机制上的起源提供新解。因此,理解心灵既需要研究涉身认知与生成认知的主题,更需要探讨发展心理学、生态心理学、应用语言学、人类学和动力系统理论等多元主题。而认知科学之所以是哲学研究的沃土,原因之一在于其许多问题仍需批判性重估以支持学科的进一步发展。

在此基础上,刘晓力教授指出,目前认知科学的三条路径(认知心理学、脑科学与神经科学、人工智能研究)面临最大的共同困难是因果性问题。因果性问题在认知心理学中,首先表现为表征上的困境:(1)表征的规范性问题:何为错误表征?其内容和语义可控变量如何确定?(2)符号化-命题式知识表征对于认知是必须的吗?(3)知觉表征引导行动能否作为认知的标志?其次,是脑科学与神经科学研究意识的困境,即意识的自然化困境。对于这一问题,目前两大最具竞争力的意识理论(巴恩斯的全局工作空间理论与托诺尼的信息整合理论)仍然各存局限。其三,是人工智能研究的落地瓶颈与机器意识屏障。自AlphaGo之后,人们开始对60年间发展的AI进行反思。刘晓力教授认为,AI发展目前受到三大瓶颈的制约,即语义落地问题、物理落地问题、情感落地问题,这三大问题是目前人工智能和机器意识研究的最大屏障。

哲学与认知科学的结合产生了大量新研究课题,但其似乎并未如最初设想一般担当起研究心灵和认知本质的统一学科之名。未来究竟是关于认知的大一统理论或是多学科多元理论共生并存,主要取决于更具竞争力的新认知科学范式的生成。就此而言,双向挑战仍在继续。刘晓力教授认为,假如哲学家们采纳科学界通用的建设性态度,致力于研究可验证的假说,并尝试澄清科学概念和我们道德生活之间的关系,我们将在认知科学领域得以发展。

第二部分对智能机器情感与道德的讨论主要遵循如下路径:1、在什么意义上谈智能机器的情感和道德;2、情感的哲学争论;3、意识与情感的科学研究;4、机器意识与机器情感的初步探索;5、可情感落地的人工道德主体应具备的核心特征;6、结语:奥莫亨德罗(S. Omohundro)两难。

2000年起,人们开始研究人工情感、人工意识、机器情感和机器意识,而目前建造有意识与情感的机器主要有三种策略,即算法策略、类脑策略、脑机接口策略;建造有自我意识的机器的重要理论依据则是20世纪90年代由认知心理学之父内瑟尔提出的关于自我的五个重要方面。2011年后,机器意识研究增加了自我意识实现维度,其目标为建造一个整合自我觉知的认知架构。讨论AI情感落地问题的动机,也即目前重要的问题是,何为人工道德主体(Artificial Moral Agents, AMAs),如何可能建构自主的人工道德主体?在未来人机共生时代,我们是否应当建构AMA,可能的途径与潜在的风险都是什么?

需要澄清的是,目前的AI无法承担道德责任,绝非真正的道德主体。受人类情感的科学与哲学启发,刘晓力教授依据情感的说明理论,拟从涉身性认知的视角引入“情感触发”三成分结构:感知、动机、价值评价。而根据瓦拉赫和艾伦在2009年《道德机器》中划分的人工道德层次,更深的问题由之而来:机器可能具有真正作为人工自主体(autonomous agent)的道德吗?换言之,机器应当如何从程序的自动运行演化为一个自主行为主体?基于克拉克与明斯基对自主体与伦理自治性(Ethically Autonomous)的说明,刘教授尝试引入“情感触发(Emotional Trigger)”“信用赋能(Credit Assignment)”“实践推理(Practical Reasoning)”三维度,讨论AMA所应具备的核心特征。情感触发,意指情感是人类不同思维方式的触发器;信用赋能,是认知主体的一种能力,即可通过较少样本的学习获得更多成果,反思行动后果、寻求事物一般模式,进行因果关联分析;实践推理,即审时度势擅长反事实因果推断的能力,具有实践推理的认知必须具备注意能力、行动能力和想象能力。

刘晓力教授进一步指明,虽然经过如上三重维度,我们已然确认了AMA所应具备的核心特征,但目前所有可行的建构方案还是在探讨功能道德的物理固化或者程序上可实现的功能道德。需要明确的是,语义落地、物理落地都需归结为情感落地,也就是说,一旦建构出作为自主体的AMAs,应当是能够担负道德责任的主体。这个意义上的AMA应当具备如下三项核心特征与相应的能力:1AMA是一个通过情感触发设定自我目标采取行动的认知主体;2AMA是一个具有信用赋值能力的认知主体;3AMA是一个具有实践推理能力的认知主体。简言之,未来社会的道德主体应是人机融合的延展认知系统。最后,刘晓力教授通过奥莫亨德罗悖论,来说明自主人工道德主体的风险和边界:一旦机器具备自我意识,就意味着有自我保护意识,第一要务是自身的生存。在日常生活中,人类有多种不相容的偏好,而道德规则本身就包含着无限多种偏见,并且很难经受人际利益冲突的考验。我们可以设想一种道德至上的智能机器人,负责运算的黑箱中预置最高级的道德命令以防灾难发生。但基于人类道德规则的相互冲突,完美主义的机器人将无法突破无限选择的困境,最终走向灭亡。相对地,人类则会避免这一悖论:人类大脑的本能会寻求一般模式,而选择性忽略次要事物,即人类具备信用赋能能力。

与会师生反响热烈,积极与刘晓力教授展开互动。最后,思勉人文高等研究院院长郁振华教授对讲座内容与当前学术动态进行了总结与展望。