站内搜索
  您现在的位置: 科学技术哲学专业网 >> 人大科哲 >> 学界交流 >> 学术视点 >> 正文
田海平:人工智能时代的道德:让算法遵循“善法”
  作者:田海平    文章来源:作者惠寄    点击数:    更新时间:2017-9-4    
】【】【

   

     

人工智能的蓬勃发展带来了人们在思想、生活和工作各方面全方位的变革。“人机大战”引发广泛关注的深层原因,在于它在文明史和人类史尺度上以一种仪式化的效应表征了一个时代的来临,即人工智能时代的来临。

人工智能时代来临,人类应该如何行动?

从人工智能的主体结构看,无论“阿尔法狗”战胜人类顶尖棋手,还是“微软小冰”创作诗歌,亦或是IBM公司的超级机器人“沃森”挤身杏林、悬壶治病,它们目前充其量不过是人类关于人工智能主体表象的某种写意图画,属于某种弱的人工智能,且实际上离真正的智能主体相距甚远。然而,这并不能消除一种日益滋长起来的恐慌性担忧:一旦人工智能大规模进入我们的生活,人类未来会怎样?斯蒂芬·霍金,史蒂夫·沃兹尼亚克,比尔·盖茨等发出先知般的警示说:“人工智能可能是人类存在的最大威胁。”埃隆·马斯克甚至危言耸听说:“有了人工智能,就相当于我们开始召唤恶魔。”当然,我们必须承认,在围绕人工智能的诸种是非善恶之论辩及众声喧哗中,一种明智的担忧或富有远见的决断是必要的,它指向一种积极的应对和合理化的行动。

透过各种各样的“悲观主义-乐观主义”的观念对峙,我们看到,我们真正需要认真面对的问题是:既然认识到人工智能的时代已经到来,我们要如何行动才使自己成为未来的一部分?换言之,为了避免人工智能在唤醒万物的同时唤醒人类无法控制、甚至最终控制或取代人类的“恶魔”,我们到底应该如何行动?笔者认为,这个问题的紧要处只有放在规范性的先行构建上,才能未雨绸缪。它涉及人工智能时代的道德建构问题,应从“人为自己立法”的规范性原理中产生。就形式方面而言,笔者将这种规范性的先行构建概括为一个基本原则,那就是:“让算法遵循‘善法’”。因为“善法”的主体性总是与“目的”相关,而算法在总体上永远只能是达到目的的手段或工具而已。

具而言之,作为人工智能时代的道德建构,让算法遵循善法的原则包含两个重要的伦理尺度:一是人工智能自身嵌入的道德,涉及人工智能带来的智能主体模式及其相关伦理尺度;二是人类在拓展人工智能的过程中进行的道德建构,涉及常见的人类主体模式以及人类主体与人工智能主体相处的“主体间”模式及其相关伦理尺度。

人工智能2.0是否依系于道德算法

第一个方面的伦理尺度与人工智能的智能主体或智能主体Agents模式有关。人工智能通常的定义是:研究如何使计算机等机器能够做“那些表现出人的智能的事情,其目标是使智能行为自动化。然而,就智能主体的类型而言,在机器中实现某些人类的智能的弱人工智能,与让机器自主地或自动地表现人类的智能的强人工智能,在强弱程度上是大不一样的。如果将前者记为人工智能1.0”,那么后者就是人工智能2.0”。就前者而论,今天的人工智能在某些方面虽然已远远超过了人类智能,以至于有人预测在不远的将来机器智能有可能全面超越人类智能;但是,客观地说,它还不能称得上是严格意义上的智能主体。就后者而论,即使融合了可使智能对话得以实现的语义网络、知识图谱和云计算等技术在内的机器人,其能动、自主和自由方面的主体特性或主体结构离人类主体性亦相距甚远,甚至远不能称之为“人工智能”(AI)。有人主张,姑且可以称之为人工愚蠢”(AI)。即便如此,由于具有自主行动能力的人工智能在主体特性上变得日益凸显,目前的人工智能完全可以看作是从人工智能1.0”人工智能2.0”的过渡,其实质是走向一场更深远的智能主体革命。

在这个背景下,人工智能作为一种“自主智能主体的架构体系”,其主体性或主体结构,有点类似于我们将人脑的某些功能(或类似人脑的某些功能)移至机器之中。如果说人类主体性的生物学基础是“神经”,那么,人工智能的主体性是而且只能是对人类主体性的一种模仿。这种模仿的科学基础和展现形式就是“算法”。抛开人工智能主体在多大程度上类似于人类主体不论,研究者指出:使人工智能产品成为智能主体的关键要素是“道德算法”——即一种令自主性人工智能装置学会负责任行动的算法,它内嵌于人工智能的算法体系之中。各国科学家们正在开发能成功植入机器人的道德算法。它为机器人正当行动提供“动机”或“后果”方面的道德合理性运算和善之定义,相当于人类主体的自由意志。未来分布在人类社会中的每一个自主性机器人,不论是发挥辅助功能的机器人,还是提供娱乐服务或军事服务的机器人等等,它们首先应该是“懂道德”并“讲道德”的机器人。不懂道德或不讲道德的机器人没有未来。那么,这是否意味着“人工智能2.0”的智能主体革命依系于“道德算法”呢?

    人工智能的主体模式在这个问题上面临伦理尺度上的重大挑战。美国计算机科学家马蒂亚斯·施茨列(Matthias Scheutz)举例说:“……挑战有很多,例如理解道德判断情境,可解决道德冲突的恰当道德推理能力,以及判断适合的行动路线等,还要将所有的算法以一种让它们能坚定地实时运作之方式,布建在机器人架构中。以医疗和战场中的自主式机器人为例,当面临人类生命之生死决择难题时,机器人应该如何做决定?当不当决定导致原本可避免的伤害发生时,那是谁的责任?由于道德算法无法摆脱外部嵌入性、工程总体性、技术工具性、人工多样性或不确定性以及机器人自主行为不可避免的机械性等局限带来的深层困扰,我们定义何种道德准则和规范可以而且应该是嵌入到机器人算法体系中的道德算法,就变得更为紧要。在这个问题上,人工智能的主体模式虽然凸显了道德算法的重要性,但其更深层次且更为重要之依系,则无疑是人类为自己所立之“善法”。

人工道德与算法遵循“善法”的道德形态

第二个方面的伦理尺度与人类主体模式下的道德建构有关。目前赋予人工智能以道德能力的算法大致上有三种:一是通过语义网络扩增道义逻辑,形成义务与许可概念;二是通过知识图谱建立关联法则,侦测道德判断情境;三是通过云计算发掘相关关系,评估或预测行动后果。道德算法是嵌入在算法体系中有待完善的算法程式。它本身是在不断变化发展之中的,而非某种具体现存之物,也非某种一蹴而就或一劳永逸的终极预设。它作为一种人工建构,是一种通向“目的善”的“手段善”,因而依系于人类主体模式。在这个尺度上,算法只有体现或遵循人类主体模式下的“善法”,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。这是人工智能时代的道德建构应遵循的基本原则,即算法遵循“善法”。在这一原则中,“善法”一词尽管抽象含混,其表征的人类主体性尺度在具体内容上也可能引发争论,但它在形式上则明确指向人类尺度上的两种道德形态。

第一种道德形态由常见的人类主体模式主导,涉及人类在拓展人工智能时可能带来的所有伦理问题。特别说来,当人们把人工智能视为一种工具时,它的道德特殊性和道德重要性始终呼唤人类主体的道德责任之回归。这是一种单纯的规范性取向,即人类应该透过有责任感的方式筹划和迎接人工智能时代的来临。宾夕法尼亚大学计算机科学教授乔纳森•史密斯(Jonathan Smith)指出,“短期问题非常重要,因为人工智能处于技术和政策的边界”。如果我们不希望有人利用人工智能来钻法律的空子,逃避或转移我们努力在做出的社会政治决策,就需要在各主体层面(从人类主体到国家、社会、社群、企业以及相关机构组成的集体主体,再到个人主体)建构相应的规范性框架。一种审慎的伦理表明,人工智能可能存在的最大威胁并非来自机器,而是来自人或人类的意图和行动。考虑到赋予机器人以道德能力的算法本质上是模仿人类道德的算法,如果人类在道德问题上不能获得明确性,以算法形式在机器中展现人类道德又如何可能呢?问题以悖谬方式彰显了人工智能内爆的道德形态建构。它以某种方式回应了詹姆斯•摩尔(James Moor)对伦理智能主体应具备道德明确性的要求,即随着自主性的提升,具有自主道德能力的人工智能在面临道德两难的情境时,或者在面对不同道德原则冲突时,必须能够做出明确的合理化决策。这种对道德明确性的要求,反过来构造或描绘了人类尺度上的“善法”之特质,它倒逼人类主体模式尽一切可能走出可能会引发晦暗后果(甚至灾难)的各种道德模糊地带。

第二种道德形态由人类主体与人工智能主体相处的“主体间”模式主导,涉及人类主体与智能主体之间依系关系的道德建构。这是一个新的领域。道德算法只有在“‘人-机’交互主体间”的反复博弈中,才能不断地矫正偏颇或错误,进一步升级和完善。自主性机器人可能会做出我们认为在道德上有错误的决定——例如被授权不为病患提供止痛药,再比如带有偏见的人工智能可能会自我强化从而损害社会。但是,这不应该成为人类拒绝机器人的原因,而应该成为机器人或人工智能在道德形态上得到改善和提升的契机。随着人类主体与人工智能主体之间的相互依系关系的建立,具备自我决策能力的自主机器人一旦在与人类主体的互动中学习从道德角度发展决策算法,那么避免伤害就成为人与机器相互依系的“善法”。

 

     (北京师范大学,田海平,本文首发于《光明日报》201794日理论版,首发时有删减。

  • 上一篇文章:
  • 下一篇文章: 没有了
  • 打印】  【关闭】  【返回
    Copyright © 2010-2017 www.pstruc.org All Rights Reserved.
    京ICP备10216924号;京公网备110108007581