金井良:AI需要并能够有意识


(原标题:尤瓦尔错了!AI能够有意识,也需要有意识!

AI需要并能够有意识

《未来简史》作者尤瓦尔·赫拉利认为,智能和意识是两回事,人工智能将只有智能,不会有意识。对于这一点,编者就认为尤瓦尔先生同样陷入了技术决定论的误区。

意识是什么?意识诞生于智慧体对自身以及对外界的认知,它并不是什么玄而又玄的东西,只要拥有足够的智力和足够的认知能力,产生意识乃水到渠成之事。所以AI拥有意识,只是将过去在碳基平台上发生的一连串过程转移到硅基平台罢了。而且貌似现在已近有人在着手这么做了。

人们常常问我,媲美人类的人工智能(AI)会不会终将具有意识。我的回答是:你想让它具备意识吗? 我认为,机器人能否醒来,主要由人类说了算。

这听着有些狂妄。在神经科学领域,意识的机制——我们为什么对世界及自我产生一种清晰而直接的体验——是一个未解之谜。有人认为,这个谜团永远无法解开。用客观的科学方法来解释人的主观体验,这似乎是不可实现的。

但自从人类开始认真研究意识以来,在 25 年左右的时间里,我们已经取得了长足的进步。我们发现了与意识相关的神经活动,对需要意识觉知的行为任务有了更清晰的了解。在潜意识层面,人脑就能完成很多高级别的认知任务。

智能、意识、认知

金井良:AI需要并能够有意识

我们可以试探性地得出结论:意识并不是认知的必要副产物。人工智能应该也是如此。在很多科幻故事中,机器仅仅因为其本身的复杂性,就自然而然地发展出了意识,但更有可能的情况是,AI 的意识要靠人类来设计。

从科学与工程学方面讲,这样做有着充分的理由。我们对意识的无知就是原因之一。在 18 和 19 世纪,工程师们没等物理学家厘清热力学定律,就制造了蒸汽机。当下亦如是。围绕意识展开的争论往往充满太多的哲学色彩,绕来绕去,却始终没有看得见、摸得着的结果。而作为一个研究人工智能意识的小社群,我们的目标是从实践中学习。

另外,意识肯定有它的重要功能,否则,它也不会被进化出来。这种功能自然也能为 AI 所用。在这个方面,我们或许也被科幻故事误导了。对小说和电视里的 AI 来说,意识是一种诅咒。它们表现出不可预测的有意行为,而且人类的结局往往不是很好。

但在现实世界中,这类反乌托邦幻想真正出现的概率很低。AI 即便带来风险,也不太可能与意识有关。恰恰相反,有意识的机器也许还能帮助人类,参与管控 AI 技术的冲击。相较于没有思维的自动机器,我更愿意与有意识的 AI 共享世界。

AlphaGo 对弈世界围棋冠军李世乭的时候,很多专家就看不懂 AlphaGo 的棋路。他们想得到某种解释,理解它每一手棋背后的动机和理由。此类状况在现代 AI 领域较为常见,因为这些 AI 决策不是由人类预先编程的,而是从学习算法和训练数据集中“涌现”出来的。正是因为这种高深莫测,人们开始担心 AI 决策不公,或是太过武断,而且现在也确实出现了算法歧视的案例。

从明年开始,欧盟公民将依法得到“解释权”。对于一个 AI 系统为何作出某个决定,人们有权要求相关部门作出审核。这一新规定对技术的要求很高。目前,考虑到当代神经网络的复杂性,我们还很难厘清 AI 的决策过程,更不用说将其转化为人类能够理解的语言了。

意识,它究竟是个什么东西?

金井良:AI需要并能够有意识

既然我们搞不懂 AI 的意图,何不直接去问 AI ?我们可以赋予其元认知能力——即报告内心想法的内省能力。这种能力是意识的主要功能之一。神经科学家在检测人类或动物是否具有意识觉知时,寻找的就是这种自省能力。

举个例子,自信是元认知的基本形式之一,随着意识体验变得不断清晰,自信也会逐渐增强。当我们的大脑在没有“注意”的情况下处理信息时,我们会对那些信息不太确定;而在意识到某种刺激时,我们就会体验到高度的自信:“我绝对看到了红色!”

任何小型计算机,只要预编了统计公式,就都可以对自信作出估算,但还没有哪台机器具备像人一样完整的元认知能力。一些哲学家和神经科学家想完善这样一种理念:元认知是意识的本质。

而所谓的“高阶意识理论”认为,意识体验是取决于感官状态这种一阶表征的二阶表征。我们知道一个东西的时候,也知道我们知道这个东西。反过来,要是缺乏这种自我觉知,我们就是无意识的;我们将不知不觉地接受感官输入,作出相应行动,不会有任何觉知。

这些理论为我们构建有意识的AI指出了一些方向。我和同事们正试着在神经网络中推行元认知,这样一来,它们彼此之间就能沟通自己的“想法”。我们称这个项目为“机器现象学”,它借用了哲学中的现象学说法,通过对意识体验的系统性自省,来探究意识的结构。

为避免多此一举地教 AI 用人类语言来表达,目前,我们的项目侧重于训练 AI,使之发展出自己的语言,用于彼此之间交流各自的内省式分析。这些分析包括 AI 对任务完成方式的说明。这在现有基础上更进了一步——目前的机器只能就任务的结果展开交流。

至于机器如何编码这些说明,我们并不作具体规定;在训练过程中,神经网络会发展出一种机制,对成功的交流进行“奖励”。我们还想进一步升级,在人类与 AI 之间建立沟通渠道,这样,我们就可以要求 AI 给出解释了。

除了赋予我们某种程度的自我理解,意识还帮我们实现了神经科学家恩德尔·图文(Endel Tulving)所谓的“心理穿越”。在预测自身行动的后果或规划未来时,我们是有意识的。不用真的挥舞双手,我就可以想象挥舞双手是什么感觉。当我人还坐在客厅的沙发上时,脑子里就可以勾勒出去厨房泡杯咖啡的情景。

其实,我们对当下的感知也是意识所构建起来的。这在各种实验和案例研究中都有体现。有一些认知障碍患者,他们的视觉皮层受损,导致物体识别出现障碍,无法说出物体的名称。

但是,这些人却可以伸手抓住物体。若给他们一个信封,他们完全知道如何拿住它,然后塞入信箱。但如果研究人员先向受试者展示信封,过一段时间之后,再让他们去拿这个信封,受试者便无法完成“拿信封”这个动作。

由此可见,意识并不涉及复杂信息的处理本身;只要有某种刺激物能即刻触发行动,我们就不需要意识。当我们需要将感官信息多维持几秒的时候,它才会发挥作用。

金井良:AI需要并能够有意识

在一类特殊的心理学条件反射实验中,意识在“穿越”过程中发挥的重要作用也得到了体现。这是一种经典的条件反射实验,实验人员将一种刺激物(比如向眼睑吹气,或是电击手指)与另一种毫不相关的刺激物(比如某个纯音调)匹配起来。

受试者无需有意识地努力,就能自然而然地将两者对应起来。一听到音调,他们就会不由自主地缩头,怕被吹气。而当实验人员问他们为何会如此时,他们却无法解释。不过,只有当两种刺激同时发生时,这种下意识的行为才会发生。

若实验人员延迟第二种刺激,那么受试者只有在意识到这种关系之后,才会将两者联系到一起——也就是说,他们要能够告诉实验人员:听到音调,就意味着待会儿要被吹气。受试者似乎必须有所觉知,才能在刺激消失之后,将记忆维持下去。

AI 能够有意识吗?

这些例子说明,意识的功能之一,就是拓展我们面向世界的“时间窗”——将当下延展开来。在刺激消失之后,我们的意识觉知会将感官信息保留一段时间,其间保留它们的灵活性和可用性。当直接感官输入消失之后,人脑会持续催生这种感官的表征。

意识所具有的这种延时性可以在实践中得到检验。弗朗西斯·科里克(Francis Crick)和克里斯托夫·科赫(Christof Koch)提出,视觉输入中,只有很小一部分被大脑用来规划未来的行动。如果规划是意识的关键功能,那么,只有这部分输入才能与意识挂钩。

上述例子有一个共同的主题,那就是反事实信息的生成。它指的是对那些并不直接在我们眼前的事物产生感官表征。说它“反事实”是因为,它涉及对过去的回忆,或是对尚未执行的未来行动的预测,而不是外部世界正在发生的一切。用“生成”一词是因为,它不仅限于信息的处理,同时也是一个创建假设与测试假设的活跃过程。

在人脑中,感官输入从低级别的脑区流向高级别脑区(又称单向或前馈过程),逐步被压缩为更抽象的表征。但神经生理学研究表明,这种前馈过程不论多么复杂,都与意识体验无关。要产生意识,你需要的是从高级别脑区流向低级别脑区的“反馈”过程。

通过反事实信息的生成,有意识的施动者就可以脱离环境,进行非反射式的行为,比如,停三秒再行动。要生成反事实信息,我们需要一个能够掌握统计规律的内部模型。这类模型可以用于多种用途,诸如推理、电机控制和心理模拟。

我们的 AI 已经具备复杂的训练模型,但要依赖人类提供学习数据。而借助反事实生成,AI 将能生成自己的数据,能自己设想未来可能出现的情境。这样,它们就能灵活应对前所未遇的新状况。AI 也将因此产生好奇心。如果不确定未来将是何种状况,它们就会试着去想办法。

金井良:AI需要并能够有意识

有时候我们都觉得,我们创造的 AI 施动者已经出乎我们的意料。在一项实验中,我们模拟了能够在现实环境中驾驶卡车的 AI 施动者。要让这些施动者爬坡,我们通常必须将“爬坡”设置为目标,然后由施动者找出最佳路线。

而一旦被赋予好奇心,无需人类指示,施动者就能主动将山坡识别为问题,继而找出爬坡方式。我们仍然需要进一步的工作,才能让自己相信,这的确是一项创新。

如果将内省和想象作为意识的两大组成部分,乃至主要部分,那么最终,我们将不可避免地构想出一个有意识的 AI,因为很明显,这些功能对任何机器都有助益。我们希望我们创造出的机器能够解释它们的工作方式,以及它们的每一步意图。构建这些机器需要人类发挥自己的想象力。这也将成为对意识所具备的反事实能力的终极检验。

本文作者金井良太是一名神经科学家与 AI 研究人员。他是东京初创企业 Araya 的创始人兼 CEO。