齐佳音
上海对外经贸大学,人工智能与变革管理研究院,院长,教授,博士生导师
在我的第八篇专栏中,讨论到数字化技术所带来的新型权力——数字化权力。数字化权力不一定掌控在拥有这些技术的组织手中,如果这些组织无法完全掌控人工智能系统,人工智能系统将是这些数字化权力的拥有者;如果人类不能充分掌握人工智能系统的行为,人类将无法实现对于人-机融合社会的有效治理,从而为人类社会的可持续发展埋下隐患。
2019年四月,MIT媒体实验室(Media Lab)团队在Nature发表题为“机器行为学(Machine Behavior)”的文章(Nature, 2019,568,477-486),提出应该单独开辟一个新的跨学科研究领域“机器行为学”,专门研究人工智能系统的行为,这对于人类控制机器行为、利用其益处、最小化其危害,具有重要意义。机器行为学是对智能机器的行为进行科学研究的跨学科领域。进一步,该文章提出机器行为学的三个层次:单个机器行为学、团体机器行为学以及混合人-机行为学。这其中,又以混合人-机行为学最为复杂。在人-机混合系统中,人可以重塑机器的行为,机器也可以重塑人的行为,人与机器之间还可以派生出合作行为。各界已经共识到,人工智能既是技术问题,也是社会问题。智能机器运行于社会-技术复杂系统中,与人类利益息息相关,机器行为学研究实属非常必要也十分重要且急迫。
借用Nature这篇文章中关于“机器行为学”的提法与分类,我个人这两年来在混合人-机行为学方面进行了一些浅显的学习和不成熟的思考,在此与大家商榷。
谈到人-机关系的研究,在机器人研究领域,就不得不谈到恐怖谷理论(uncanny valley)。恐怖谷理论是一个关于人类对机器人和非人类物体的感觉的假设,由日本机器人专家森政弘(M. Mori)在1970年提出。该理论认为人-机关系的早期,机器人与人类在外表﹑动作上越相似,人类对机器人的好感度就会越高;但是到达某一个特定相似度时,人类会突然对机器产生极度的反感,任何机器人与人类之间的差别,都会显得非常显眼刺目,人类会感觉机器人如同人类的“僵尸”,非常僵硬恐怖,让人有面对“行尸走肉”的感觉。机器人仿真人类的程度越高,人们对机器人越有好感,但在相似度临近100%前,这种好感度会突然降低,越像人反而越让人反感恐惧,好感度降至谷底,这种情况被称为恐怖谷。但是,当机器人与人类的相似度继续上升时,人类对他们的情感反应会逐步跨过恐怖谷,对高度相似的机器人产生移情效应,甚至认为机器人就是一个健康的人。恐怖谷理论的示意图见图1。
图 1恐怖谷模型(Mori,1970)
恐怖谷理论背后的原理可以用心理学中的认知不一致效应来解释,也就是说在人-机关系的初期,人类对机器的认知就是“机器”,而不是“人”,因而当机器逐步具备更加智能的功能时,人类会为机器在“智能”上的拟人性而表现出正面积极的反应;但是当机器越来越像人,人类的认知出现失调,人对界定机器是“机器”还是“人”时产生认知困惑,一方面像是机器,一方面又像是人类,这种对机器认知上的不伦不类,导致人极度反感这种怪模怪样的智能机器,但之后,随着机器更加逼真地接近人,人类重新调整了认知,并会移情于机器人。
2012年,Gray和Wegner(Cognition,2012,125,125-130)通过实验实证试图从认知机制上来解释恐怖谷理论,并提出心灵归因理论(attributions of mind)。这两位学者通过实证研究,认为恐怖谷的存在是因为当人感受到机器具备了体验的能力(感觉与感受的能力),而不仅仅是代理的能力(行动和执行的能力)时,发生了认知失调,因为人认为体验的能力(而不是代理能力)是人类区别与其他事物的根本之所在,体验的能力也应该是机器所不具备的。
2017年,Stein和Ohler(Cognition, 2017,160,43-50)也是通过实验实证进一步探究恐怖谷理论。他们的实验发现机器与人外在的相似性并不是产生恐怖谷的原因,无论机器的外在是否与人类相似,只要人能从与机器的互动中感受到机器的移情特征,人就会对机器产生毛骨悚然的情绪。机器如果具有移情特征,就会威胁到人类的独特性,因为人类通常认为机器是没有心灵的,而人是有的,而且唯人类有。
可以说,Stein和Ohler(2017)的研究在森政弘的恐怖谷理论以及Gray和Wegner(2012)研究的基础上,又有了深入的剖析和调整,我将其结果展示在图2。
图 2恐怖谷模型(Stein和Ohler,2017)
为了建立高质量的人-机关系,近年来不断有学者提出赋予智能机器某种“人格”特征,或者说让智能机器拥有“数字心智”(digital mind)。产业界在此方面也的确取得了惊人的进展,如2018年Google推出的聊天机器人助理Duplex能够用自然流利的语气,帮用户完成美发沙龙和餐馆的预定操作,让人很难区分是在与人对话,还是与机器对话。该项技术一经问世,瞬间将亚马逊的Alexa和苹果的Siri等竞争对手摔在身后。但是,这一技术的问世,却遭遇到恐怖谷效应,多数使用者感到恐怖,而不是欣喜。我在我的课堂教学中演示了这一产品,同学们的现场反应也完全是这样的,我本人的感受也是感到恐惧。
可以看到,从1970年森政弘提出恐怖谷理论发展至今,单是从心理认知领域的研究,学者们对人-机混合系统的行为机理尚在早期探索的旅途中,其他领域的发展还要更加迟缓。到底是机器与人的外在相似性还是机器所具有的移情性导致了恐怖谷效应,还有待未来深入研究。更大胆地设想一下,是否真的存在恐怖谷效应,或者在什么情况下才会有恐怖谷效应,这些都是值得探索的开放领域。再向哲学层面思考一下,人与智能系统的区别到底是什么?是否为了达到人对于智能机器的充分好感,就应当竭尽全力地让机器拥有人一样的移情特征?还是应该让人与机器保持在一定的特征边界之外,以确保人与机器的区别?如果机器拥有了人一样的移情特征,人将视机器如同“健康的人”,这又会对人与机器的关系,人与人的人际关系,机器与机器的关系等产生什么样的连锁效应?未来的人-机融合社会应该在建立在什么样的人-机关系基础之上?回到本质性的问题,高质量的人-机关系应该如何确定标准,应该如何构建,更应该如何治理,这将是未来混合人-机系统行为学研究中根本性的问题。
如果我们承认恐怖谷理论,那就意味着产业界如果不能够提供高度类人的智能机器,那就要将智能机器与人的相似度限定某一个阈值之下,以免跌入恐怖谷。如果Stein和Ohler(2017)的研究是可靠的,那么这些相似应该主要是指智能机器在与人的情感互动方面的移情性。不要让智能机器过于能读懂人类的“心”,要让人类在对于人与机器的区分上保持认知的一致性,以免引起人对于机器的反感。当然,如果在某些特定的领域,如老年人护理等,可以放宽限制。
2020年的美洲信息系统年会的会议征文中(AMCIS 2020,SIGADIT: Adoption and Diffusion of Information Technology, Minitrack 3: Adoption and Diffusion of Ambivalent Information Technologies),将人工智能应用归入两面性信息技术(ambivalent information technologies)。两面性信息技术是指这类信息技术既能给个人、组织和社会带来好处,与此同时也带上坏处。人工智能技术的应用能够提高工作效率,改善生活质量,但与此同时也会使人的自主性受到威胁,隐私安全遭到侵犯,甚至被歧视性对待。因此,该会议的征文号召信息系统领域的学者来研究这种两面性信息技术中的人对于技术的采纳问题。
正如MIT媒体实验室在Nature杂志上所倡导的那样,到目前为止,机器行为学领域的研究在各个学科零碎而分散,需要跨学科协同才能取得更快的进展。这里我推荐Dutton和Ragins在2007主编的一本书《探讨工作环境中的积极关系:构建理论研究基础》(Exploring Positive Relationships at Work: Building a Theoretical and Research Foundation)。这本书虽然不是关于人-机关系的,但是这本书中对积极的人-人关系的系统性分析,可以借鉴到积极的人-机关系的理论构建中;这本书中大量的社会学理论,如自我分类(self categorization)、自我实现(self actualization)、社会身份(social identity)、身份增强(identity enhancement)、身份改变(identity change)、身份威胁(identity threat)、意义感知(sense making)、差异相关冲突(difference related conflict)、社会学习理论(social learning theory)等等,对于研究混合人-机关系系统很有裨益。另外一方面,这本书对于积极的人-人关系的分类,也很类似于MIT媒体实验室对于机器行为学的分类,分为个人与个人、特定组对之间(如领导与下属、经理与员工等)以及群体层面。
高质量的人-机关系是智能时代可持续发展的重要基础,当智能技术突飞猛进的时候,人-机之间的高质量关系变得十分重要。这是一个新生的,急待突破的领域,期待跨学科的学者携手,共同推动这一领域重大理论成果早日问世。