研究 | 人工智能政策:入门与路线图

2019-08-15 13:57 来源:《加州大学戴维斯分校法律评论》
浏览量: 收藏:0 分享

  摘 要:新一轮人工智能热潮至少有两点独特之处:一是得益于计算能力和训练数据的巨大增长,机器学习取得实质性突破,促使人工智能的大规模应用成为可能;二是决策者终于给予了密切的关注。当前,人工智能引发了一系列严峻的政策挑战,包括公正与平等、武力使用、安全与认证、隐私和权力、税收和失业以及机构配置与专业知识、投资和采购、消除归责的障碍、人工智能的心理模型等跨领域问题。人工智能末日论反映了人类对于人工智能等拟人化科技的特殊恐惧,在可预见的未来并不会真实发生。相反,对人工智能末日论投入过多的关注和资源,可能会分散决策者对于人工智能更直接的危害和挑战的注意力,进而阻碍有关人工智能对当前社会影响的研究。

  关键词:人工智能;政策挑战;机器学习;人工智能末日论

  2017年,有关人工智能的讨论无处不在。一方面,人们对于机器翻译各种语言以及精通各种游戏的能力感到惊叹。② 参见Cade Metz,In a HugeBreakthrough,Google’s AI Beats a Top Player atthe Game of Go,Wired,Jan.27,2016。报道称经过几十年的努力,谷歌的人工智能终于在围棋游戏中击败了人类顶级选手。围棋是一款有着2500年历史,比象棋更为复杂的考验策略和直觉能力的游戏。另一方面,人们又在谴责使用不透明的算法对犯罪嫌疑人进行定罪,③ 参见Cathy O’Neil,Weaponsof Math Destruction:How Big Data Increases Inequality and ThreatensDemocracy,Crown,2016,p.27(作者将这种算法与大规模杀伤性武器相比较,认为两者都将带来恶性循环);Julia Angwin,et al.,Machine Bias,Propublica,May 23,2016(文章探讨了算法在生成风险评估指数时所犯的错误)。同时对于机器人取代蓝领、粉领以及白领工作岗位的未来场景感到畏惧。①参见Martin Ford,Rise of the Robots:Technologyand the Threat of a Jobless Future,Basic Books,2015:p.xvi(该书预测,机器的角色将由工人的工具向工人本身进化)。此外,一些人更是大声疾呼,人工智能将会成为人类“最后的发明(final invention)”。② 参见James Barrat,Our Final Invention:ArtificialIntelligence and the End of the Human Era,Thomas Dunne Books,2013:p.5(该书作者认为,“人类将与这个问题斗争到底”)。


image.png

  然而,当前我们对人工智能的关注并不是什么新鲜事:早在20年、40年甚至100年前,人们就已经对人工智能系统和机器人抱有过类似的期望和担忧。早在1996年,巴塔亚·弗里德曼(Batya Friedman)和海伦·尼森鲍姆(Helen Nissenbaum)撰写的《计算机系统中的偏见》一文中,就构建了一套评估和回应机器人不公平歧视问题的框架。③ See Batya Friedman,HelenNissenbaum,“Biasin Computer Systems”,inACM Transactions on Info.Sys.,1996,14,p.330.而1980年《纽约时报》的新闻标题“机器人正在抢走你的工作”,在2017年9月的报纸中也经常可以看到。④ 参见Harley Shaiken,A Robot Is AfterYour Job:New Technology Isn’t a Panacea,N.Y.Times,Sept.3,1980。有关机器人取代人类工作岗位的时间表,请参见:Louis Anslow,Robots Have Been About to Take All the Jobs for Morethan 200 Years,Timeline,May 16,2016。

  人工智能这一学科至少可以追溯到20世纪50年代,当时约翰·麦肯锡(JohnMcCarthy)和其他一些学者在达特茅斯学院的夏季研讨会中创造了人工智能这一术语,而人工智能背后的概念则还要再向前追溯几代人,包括查尔斯·巴贝奇(Charles Babbage)、阿达·洛芙莱斯(Ada Lovelace)以及阿兰·图灵(Alan Turing)。⑤ See Selmer Bringsjord,et al.,Creativity,the TuringTest,and the(Better)Lovelace Test,inMinds and Machines,2001,11,p.5;PeterStone,et al.,Artificial Intelligence and Life in 2030:Report of the2015 Study Panel,2016,p.50.尽管人工智能技术已经有了突破性的发展和改进,但今天我们使用的几乎所有的技术——包括生物启发性神经网络这一当前最为热门的促使人工智能出现实践性突破的核心技术——早在几十年前就已经被美国、加拿大等其他国家的研究者提出来了。⑥ 参见Peter Stone,et al.,ArtificialIntelligence and Life in 2030:Report of the 2015 Study Panel,2016,pp.50-51;WillKnight,Facebook Heads to Canada for the Next Big AI Breakthrough,MITTech.Rev.,Sept.15,2017(该文介绍了与加拿大有关的人工智能领军人物以及技术突破)。

  如果人工智能的术语、内在技术以及对于人工智能的期望和担忧都不是什么新鲜事,那么新一轮人工智能热潮究竟新在哪里?对此,至少有两点不同之处:其一,正如大家普遍认为的,计算能力和训练数据的巨大增长,促使机器学习这一人工智能极为重要的分支取得实质性突破。⑦See Peter Stone,et al.,ArtificialIntelligence and Life in 2030:Report of the 2015 Study Panel,2016,p.14;NationalScience and Technology Council,Preparing for the Future of ArtificialIntelligence,2016,p.6.正是这些突破才促使近年来人工智能在各个领域的成功应用,从诊断癌前病变到自动驾驶汽车,同时也极具放大了人工智能善与恶的潜力。

  其二,决策者终于给予了密切的关注。1960年,当约翰·肯尼迪当选美国总统时,许多人请求他召开一个围绕机器人和劳工主题的会议。⑧See Louis Anslow,Robots Have BeenAbout to Take All the Jobs for More than 200 Years,Timeline,May 16,2016.对此,肯尼迪总统拒绝了。⑨ 不过,肯尼迪总统发表了一篇关于“高效和强有力的政府领导”必要性的演讲,以回应“自动化问题”。参见John F.Kennedy,Remarks at the AFL-CIO Convention,June 7,1960。随后,又有许多人提出组建联邦自动化委员会(FederalAutomation Commission),⑩See Louis Anslow,Robots Have Been About to Take Allthe Jobs for More than 200 Years,Timeline,May 16,2016.但最终也不了了之。据一项调查显示,直到2016年,美国众议院能源和商业委员会才举行了一次关于先进机器人(人工智能机器人)的听证会,参议院联合经济委员会才展开了“专门针对人工智能的首次听证会”。?See Ted Cruz,Sen.Cruz Chairs FirstCongressional Hearing on Artificial Intelligence,Press Release,Nov.30,2016;TheTransformative Impact of Robots and Automation:Hearing Before the J.Econ.Comm.,114thCong.,2016.同年,奥巴马政府召开了几场关于人工智能的研讨会,并发表了三份官方报告,详细介绍了其研究成果。①See National Science and TechnologyCouncil,Preparing for the Future of Artificial Intelligence,2016,p.12.与此同时,其他国家有关人工智能的官方政策则走得更远:日本和欧盟政府近年来已经在计划或组建有关机器人和人工智能的官方委员会。②See Iina Lietzen,Robots:LegalAffairs Committee Calls for EU-Wide Rules,European ParliamentNews,Jan.12,2017;Japan Ministry of Econ.,Trade and Indus.,Robotics PolicyOffice Is to Be Established in METI,July 1,2015.

  本文主要目的是尝试将人工智能政策的讨论介绍给读者,并为现有的各方主体提供一个概念架构。本文旨在帮助决策者、投资者、学者以及学生们理解人工智能的当代政策环境及其面临的关键挑战,具体包括:公正与平等、武力使用、安全和认证、隐私与权力、税收和失业。除上述主题之外,本文还将选择性地介绍一些更广泛的系统性问题:机构配置和专业知识、投资和采购、消除归责的障碍、纠正有缺陷的人工智能的心理模型。

  文章主要包括以下几部分:第一部分简要介绍人工智能的背景,并通过比较伦理、治理等术语来证成为何使用政策这一术语。第二部分详细探讨本文梳理的人工智能的关键政策问题。第三部分探讨人工智能末日论这一古怪而又普遍存在的恐惧——如果这种担忧属实,那么将会让其他政策问题变得黯淡失色。最后一部分则是结语。

  一、背 景

  (一)什么是人工智能?

  关于人工智能并没有一个统一公认的定义。人工智能最好被理解为一组旨在通过机器来逼近人类或动物认知的某些方面的技术。早期的学者认为符号系统(symbolic system)——使用逻辑规则而成的抽象的符号组织——是通向“思考型”计算机的最佳路径。③See Peter Stone,et al.,ArtificialIntelligence and Life in 2030:Report of the 2015 Study Panel,2016,p.51.然而,这种最早由图灵等学者提出来的,通过设计一台推理机(reasoning machine)以解决所有认知任务的方法,并没有实现最初的期望。尽管这种方法从理论上看似乎是可能的,但实践中并没有产生多少可行的应用。④See Peter Stone,et al.,ArtificialIntelligence and Life in 2030:Report of the 2015 Study Panel,2016,p.51.

  一些人指责,相对于其他技术(如强化学习),对于符号系统理论的过度承诺,导致20世纪80年代末研究经费的大幅削减以及“人工智能冬天(AI winter)”的到来。⑤See Peter Stone,et al.,Artificial Intelligence andLife in 2030:Report of the 2015 Study Panel,2016,p.51;NationalScience and Technology Council,Preparing for the Future of ArtificialIntelligence,2016,p.25.但不管怎样,由于“好的老式的人工智能(good old fashioned AI)”实际应用能力的局限越发凸显,研究人员开始在对于现实世界数据的分析和控制的基础上,尝试通过许多的其他方法来逼近人类的认知。⑥See Peter Stone,et al.,ArtificialIntelligence and Life in 2030:Report of the 2015 Study Panel,2016,p.51.作为这一转变的一个重要结果是,研究人员开始尝试解决特定的问题或专攻特定的“领域”,如将语音转换为文本或者下棋,而不是去追求通过一个系统去解决所有认知任务的整体智能(holistic intelligence)。⑦ 参见Peter Stone,et al.,Artificial Intelligence and Lifein 2030:Report of the 2015 Study Panel,2016,pp.6-9。最初,学界区分“弱人工智能(weak AI或narrow AI)”和“强人工智能(strong AI)”的概念,前者主要是解决单一问题的智能,如下棋;而后者则是能够像人类一样解决所有问题的智能。今天,强人工智能的概念已经让位于“通用人工智能(artificial general intelligence,AGI)”的概念,指的能够执行不止一个领域的任务但并不需要解决所有认知任务的智能。

  今天,各种各样的人工智能技术都在研究和应用当中。然而,当前关于人工智能各种令人兴奋的想象大都来自人们对于一组被统称为机器学习(machine learning)技术的巨大期望。⑧See National Science and Technology Council,Preparingfor the Future of Artificial Intelligence,2016,p.8.机器学习指的是系统通过执行任务提升自己表现的能力。① See Harry Surden,“Machine Learning andLaw”,inWash.L.Rev.,2014,89,p.88.尽管机器学习的应用可以涵盖各个领域,从语言翻译到癌前诊断,从抓取物体到自动驾驶,但实际上这类任务通常涉及的是数据集的认知模式。正如上文所述,几乎每一项支撑机器学习的技术都已经存在数十年了。最近效率的大幅提升主要得益于计算速度的提高和更多数据的积累。②See Peter Stone,et al.,ArtificialIntelligence and Life in 2030:Report of the 2015 Study Panel,2016,p.51.

  换言之,人工智能是一个概括性术语,涵盖各种各样的技术。今天的尖端从业者倾向于强调使用诸如机器学习中的深度学习(deep learning)方法,利用多层结构从海量数据集中提取特征,以服务于需要模式识别的实际任务的解决,或者使用其他能够产生类似效果的技术。③See Peter Stone,et al.,ArtificialIntelligence and Life in 2030:Report of the 2015 Study Panel,2016,pp.14-15;NationalScience and Technology Council,Preparing for the Future of ArtificialIntelligence,2016,pp.9-10.然而,正如我们接下来将要看到的,当代人工智能的这些一般特征——如转向实际应用以及对数据的依赖——也预示着我们的政策问题。

  (二)人工智能的发展与应用

  人工智能在产业界、学术界和军事领域的发展是最为先进的。④ 有一些私人机构和公共研究室对于人工智能也十分敏感,包括艾伦人工智能研究所(AllenInstitute for AI)和斯坦福研究所(Stanford Research Institute,简称“SRI”)。其中,产业界在人工智能领域处于领先地位,各大科技公司雇佣大学最顶尖的科学家,同时拥有无与伦比的计算能力和庞大而及时的数据。⑤ 参见Jordan Pearson,Uber’s AI Hub in Pittsburgh Gutted a University Lab—Now It’s in Toronto,Vice Motherboard,May 9,2017[报告担心Uber公司将会成为一家“从公共机构吸取营养(并由纳税人资助研究)的寄生虫”]。然而,情况并非一直如此:与许多技术一样,人工智能起源于大量军事资助推动的学术研究。⑥ 参见Joseph Weizenbaum,Computer Powerand Human Reason:From Judgment to Calculation,W.H.Freeman andCompany,1976,pp.271-272(该文探讨了资助人工智能研究的资金来源)。但产业界长期以来始终扮演着重要角色。从人工智能冬天步入现在的人工智能春天(AI Spring),我们多少要感谢那些曾经在施乐帕克研究中心(Xerox Parc)和贝尔实验室(Bell Labs)工作的研究人员的不懈努力。即使在今天,公司的大部分有关人工智能的研究都发生在研发部门,它们某种程度上与公司损益底线的要求是隔离开来的。但值得注意的是,截至本文写作时,只有七家盈利公司——谷歌、脸书、IBM、亚马逊、微软、苹果以及百度——拥有大大超过所有其他公司的人工智能研发能力。⑦ 参见Vinod Iyengar,Why AI ConsolidationWill Create the Worst Monopoly in U.S.History,Techcrunch,Aug.24,2016.(文章分析了这些主要的科技公司是如何收购那些具有前途的人工智能初创公司的);Quora,What Companies Are Winning the Race for ArtificialIntelligence?,Forbes,Feb.24,2017,当然,也有一些致力于人工智能民主化的努力,包括资金充裕但非营利性的机构OpenAI。

  人工智能应用于各种各样的设备和设置之中。应用的广泛程度则要取决于你询问的对象。有些人认为,利用机器学习的垃圾邮件过滤器或社交媒体上的简易聊天机器人——例如,一款设计为通过否认其科学基础来回复关于气候变化帖子的程序——都属于人工智能。⑧See Clay Dillow,Tired of RepetitiveArguing About Climate Change,Scientist Makes a Bot to Argue for Him,PopularSci.,Nov.3,2010.有些人则会将人工智能限定为更为复杂的例子,诸如美国国防先进项目研究局(Defense Advanced Research Project Agency,以下简称“DARPA”)的学习和组织型认知助理(Cognitive Assistant thatLearns and Organizes)⑨ See Cognitive Assistant that Learns andOrganizes,SRI INT’L,http://www.ai.sri.com/project/CALO(2017年10月18日访问)。或者完全自动驾驶汽车的控制系统。此外,我们还可以区分两种不同类型的人工智能:一种是非实体型人工智能(disembodied AI),它们主要是以数据的方式来获取、处理和输出信息,另一种则是机器人或其他网络物理系统,它们主要是利用人工智能来与现实世界进行物理性交互。事实上,我们有理由相信法律将会以不同的方式对待这两类人工智能。① See Ryan Calo,“Robotics and theLessons of Cyberlaw”,inCalif.L.Rev.,2015,103,p.532.

  不管怎样,我们今天接触到的许多设备和服务——从iPhone手机的自动校正到谷歌图片搜索——都利用了经过训练的模式识别系统或复杂的算法,而它们都可以归入广泛的人工智能定义当中。② See Matthew Hutson,OurBots,Ourselves,Atlantic,Mar.3,2017.当然,接下来的讨论并没有假定人工智能复杂性的最低限度,而是侧重于分析当代人工智能与以往人工智能以及诸如计算机、互联网等组成技术的不同之处。

  (三)为什么是人工智能“政策”?

  人工智能缺乏一个稳定的共识性定义或实例使得制定一套适当的政策配套设施更加复杂。我们可能会质疑“政策(policy)”这个词在描述社会努力引导人工智能促进公共利益方面的实用性。这里也有一些其他类似的词语在使用。例如,由麻省理工学院媒体实验室(MIT’s Media Lab)和哈佛大学伯克曼·克莱恩互联网和社会中心(Harvard University’s Berkman Klein Centerfor Internet and Society)共同发起的一项新举措就被称之为“人工智能伦理与治理基金(Ethicsand Governance of Artificial Intelligence Fund)”。③ See“Ethics and Governance of ArtificialIntelligence”,Mass.Inst.of Tech.Sch.ofArchitecture&Planning,https://www.media.mit.edu/groups/ethics-and-governance/overview(2017年10月15日访问)。也许这些词语更好一些。也许不管我们使用何种术语,最终来看它们并没有什么区别,只要我们的任务是探索和引导人工智能的社会影响,那么我们的工作就是细致和严谨的。

  本文之所以使用政策这一术语有几个原因:首先,其他替代术语都存在一些问题。当然,伦理(ethics)的研究和实践至关重要,人工智能确实提出了独特而重要的伦理问题。对此,产业界、学术界以及其他机构都在努力尝试理清人工智能引发的伦理问题。④ 参见IEEE,Ethically Aligned Design:AVision for Prioritizing Human Wellbeing with Artifcial Intelligence andAutonomous Systems,2016,p.2。我作为法律委员会的成员参加了这项工作。IEEE,EthicallyAligned Design:A Vision for Prioritizing Human Wellbeing with ArtifcialIntelligence and Autonomous Systems,2016,p.125.但这些努力可能并不能取代政策制定问题。伦理本身的构造向来极具可塑性和争议性:康德和边沁都称之“应该”。⑤ See José de Sousa e Brito,“Right,Duty,and Utility:From Bentham to Kant and from Mill toAristotle”,inRevista Iberoamericana De EstudiosUtilitaristas,2010,XVII/2,pp.91-92.政策——至少官方意义上的政策——一旦颁布就有一定程度的确定性。⑥ 根据哈特的观点,法律有一个“承认规则(rule of recognition)”。参见H.L.A.Hart,The Concept of Law,3rd edn,Oxford UniversityPress,2012,p.100。此外,即使我们假定能够达成道德共识,但伦理缺乏一套强有力的执行机制。少数公司主宰着新兴的人工智能产业。⑦ See Matthew Hutson,OurBots,Ourselves,Atlantic,Mar.3,2017.他们将会偏好伦理标准而不是约束性规则,因为这样一来他们就算改变或忽视伦理规范,也不会受到实质性的惩罚。

  “治理(governance)”一词也有它的吸引力。就像政策一样,治理也是一个非常灵活的术语,可以容纳许多模式和结构。但或许是因为太过灵活:我们并不清楚究竟要治理什么以及由谁治理。无论如何,治理这一术语都有它自己的智识包袱(intellectual baggage)——就像“道德”一样,产业界在人工智能开发和应用领域的主导地位使得该包袱进一步复杂化。抛开与“公司治理”的具体关联,⑧ See Brian R.Cheffins,TheHistory of Corporate Governance,in Douglas Michael Wright,et al.eds.,TheOxford Handbook of Corporate Governance,Oxford University Press,2013,p.46.当代许多关于治理的文献都主张将权力下放给国家以外的其他主体。⑨ 参见 R.A.W.Rhodes,“The New Governance:Governing Without Government”,inPol.Stud.,1996,44,p.657;Wendy Brown,Undoing theDemos:Neoliberalism’s Stealth Revolution,Zone Books,2015:pp.122-123(文章注意到“几乎所有的学者和定义都一致认为,治理”涉及“网络化、一体化、协作性、合作性、传播性和至少部分自组织性”的控制)。尽管援引“治理”一词确实有助于让技术免于公开的政府干预——例如,通过互联网名称与数字地址分配机构(“ICANN”)以及互联网工程任务组(“IETF”)等非政府机构的互联网治理① ICANN和IETF是由美国政府资助设立的,但今天它们成为很大程度上独立于国家控制的非营利性组织。——但治理模式通过默认地将责任从国家下放给行业进而会造成对官方政策的抵制。② See R.A.W.Rhodes,“The NewGovernance:Governing Without Government”,inPol.Stud.,1996,44:p.657;WendyBrown,Undoing the Demos:Neoliberalism’sStealth Revolution,Zone Books,2015,pp.122-123.

  与此同时,使用政策这一术语起码有以下值得称道的地方。一方面,政策承认制定新法律的可能性,但并不苛求它们。在早期阶段,试图通过有关人工智能的一般法律可能并不明智,甚至也是不可行的,但就人工智能对于社会的影响进行规划则是明智和及时的——包括通过发展专业知识、调查人工智能目前和可能的社会影响,以及对适当的原则和法律作出较小幅度的修改,以应对人工智能的正面和负面影响。③ 参见Rebecca Wexler,“Life,Liberty,and Trade Secrets:Intellectual Property in the CriminalJustice System”,inStan.L.Rev.,2018,70,pp.1343-1429(除了其他方面之外,该文还澄清了公司不得援引商业秘密法以规避刑事案件的被告对其人工智能或算法系统进行审查)。产业界可能会试图影响公共政策,但最终政策的制定并非它们的职责。另一方面,政策传达了探索和规划的必要性、法律的确定性以及公共利益的优先性,同时又无须明确支持或拒绝监管干预。出于这些原因,我有意识地选择政策这一术语来构建我的文章框架。

  二、人工智能政策的关键问题

  本部分将转向论文的主要目标:人工智能对决策者提出的各种挑战的路线图。我将从需要关注的特定领域中的单个挑战开始分析,然后再讨论一些跨领域的常见问题。大多数情况下,本文避免对需要复查的具体法律或学说进行过多细致的阐述,而是强调总体战略和规划问题。

  (一)公正与平等

  迄今为止,人工智能政策最显著和发达的领域主要涉及的是算法或训练系统影响诸如公平、责任和透明(fairness,accountability,and transparency,简称“FAT”)等人类价值观的能力。④See Kate Crawford,et al.,The AI NOWReport:The Social and Economic Implications of Artificial IntelligenceTechnologies in the Near-Term,2016,pp.6-8.这是许多研究的主题,包括已经发表和即将发表的有关技术正当程序(technologicaldue process)的各种文献,以及每年至少召开一次的FAT系统设计大会。⑤ See“Fairness,Accountability,andTransparency in Machine Learning”,FAT/ML,http://www.fatml.org(2017年10月14日访问).See also Danielle Keats Citron,Technological Due Process,inWash.U.L.Rev.,2008,85,pp.1249-1313(该文讨论了“技术正当程序”的概念)。该主题也十分广泛,涵盖了人工智能支持的功能或产品中的偏见问题,以及在财务、健康甚至涉及人身自由的领域使用人工智能来做出重大决策的问题。为了梳理出具体的政策问题,本文将区分“应用不平等(applied inequality)”与“结果决策(consequentialdecisionmaking)”两种情形,当然两者也有许多重叠的地方。

  1.应用不平等

  对于应用不平等,我主要指的是一组关于对每个人都适用良好的人工智能的设计和应用问题。这里的例子包罗万象,从照相机在照相时提醒一位中国台湾裔美国博主不要眨眼睛,⑥ See Adam Rose,Are Face-Detection CamerasRacist?,Time,Jan.22,2010.欧美对于中国人普遍有“眯缝眼”的歧视性看法,这里的照相机软件显然也带有这一偏见。——译者注到图像识别系统将一对非裔美国夫妇标注为大猩猩,⑦ See Jessica Guynn,Google PhotosLabeled Black People“Gorillas”,USA Today,July 1,2015.再到翻译软件将工程师与男性、护士与女性捆绑在一起。⑧ See Aylin Caliskan,et al.,“Semantics DerivedAutomatically from Language Corpora Contain Human-Like Biases”,in Science,2017,356,pp.183-184.这些情形都是关系他们自身权利的政策问题,如非裔美国人因为平台的歧视性推送而无法在脸书上看到就业机会(现已停止),①See Julia Angwin,Terry Parris,Jr.,FacebookLets Advertisers Exclude Users by Race,Propublica,Oct.28,2016.亚裔美国人因为价格歧视性算法而不得不支付更高的备考费用。②See Julia Angwin,Jeff Larson,TheTiger Mom Tax:Asians Are Nearly Twice as Likely to Get a Higher Pricefrom Princeton Review,Propublica,Sept.1,2015.它们也会产生一系列的后续政策影响,比如一名中国台湾人后裔更难更新护照,③ See Selina Cheng,An AlgorithmRejected an Asian Man’s Passport Photo for Having“ClosedEyes”,Quartz,Dec.7,2016.或者土耳其的一名年轻女性在寻求高等教育研究的国际机会时只能找到与护理相关的资讯。④ 参见Adam Hadhazy,Biased Bots:Artificial-IntelligenceSystems Echo Human Prejudices,Princeton Univ.,Apr.18,2017。(“土耳其语中的‘o’是一个中性的第三人称代词。然而,在使用谷歌在线翻译服务时,‘o bir doktor’和‘o birhem?ire’却翻译成了‘他是一名医生’和‘她是一名护士’”)参见 Aylin Caliskan,et al.,“Semantics DerivedAutomatically from Language Corpora Contain Human-Like Biases”,inScience,2017,356,pp.183-186(该文也探讨了计算机系统中职业的性别歧视问题)。

  人工智能系统对于特定人群的适用不太灵光的原因有很多。例如,在这些设计使用的模型所需要的训练数据中,特定群体的代表性不够,导致无法充分反映他们的特征。举例来说,图像识别人工智能的训练数据中白色面孔出现得越多,这意味着系统对高加索人的适用效果最好。⑤See Adam Rose,Are Face-Detection CamerasRacist?,Time,Jan.22,2010.(探讨了照相软件中性能与种族的话题)此外,有一些系统被有选择性地适用于边缘化人群(marginalizedpopulations)。例如,警方使用旨在预测未来犯罪活动领域的“热图”来确定巡逻地点,但实际上却导致对非裔美国人群体过分的骚扰。⑥ See Jessica Saunders,et al.,“Predictions Put intoPractice:A Quasi Experimental Evaluation of Chicago’sPredictive Policing Pilot”,inJ.Experimental Criminology,2016,12,pp.350-351.然而,警方通常并不会将这些技术适用于内部人员,以预测哪些警察可能会过度使用武力。⑦ See Kate Crawford,Ryan Calo,“There Is a Blind Spotin AI Research”,inNature,2016,538,pp.311-312.投资公司也不会基于机器学习来发起交易,因为他们无法向富有而又精明的投资者解释交易。⑧ See Kate Crawford,Ryan Calo,“There Is a Blind Spotin AI Research”,inNature,2016,538,pp.311-312;WillKnight,The Financial World Wants to Open AI’sBlack Boxes,MIT Tech.Rev.,Apr.13,2017.

  这里的政策问题至少有两个方面:其一,减少歧视性偏见的最佳实践是什么以及通过什么机制(反歧视法,消费者保护,行业标准)来激励最佳实践的发展和运用?⑨ 参见Solon Barocas,Andrew D.Selbst,“Big Data’s Disparate Impact”,inCalif.L.Rev.,2016,104,pp.730-732(讨论在数据挖掘的背景下适用反歧视法的优缺点)。其二,我们如何确保人工智能的风险和收益在整个社会均匀分布?这两个问题都已经占据了相当多的资源和注意力,包括那些将人工智能引入它们产品的行业,但大家普遍认为要解决这些问题还有很长的路要走。

  2.结果决策

  在我看来,另外一组密切相关但又截然不同的问题是如何设计那些能够做出或帮助人们做出结果决策的系统。这个问题不同于一般的应用不平等问题,因为结果决策,特别是政府的结果决策,往往是在程序规则或其他程序保障的前提下做出的。⑩ 参见Danielle Keats Citron,“Technological Due Process”,inWash.U.L.Rev.,2008,85,pp.1249-1313(文章认为人工智能决策会危害宪法正当程序保证,并提倡采用新的“技术正当程序”)。例如,美国的宪法确保政府遵守正当程序和平等保护原则,? See Kate Crawford,Jason Schultz,“Big Data and DueProcess:Toward a Framework to Redress Predictive Privacy Harms”,inB.C.L.REV.,2014,55,p.110;Solon Barocas,Andrew D.Selbst,“Big Data’s Disparate Impact”,inCalif.L.Rev.,2016,104,pp.730-732.欧盟的公民有权要求作出结果决策的私人公司人工介入(当前),并对由机器作出的不利决策作出解释(待定)。① 参见Bryce Goodman,Seth Flaxman,EuropeanUnion Regulations on Algorithmic Decision-Making and a“Right to Explanation”,ARXIV,Aug.31,2016。需要说明的是,欧盟《一般数据保护条例》明确规定用户有权要求数据控制者人工介入,但对于人工智能决策结果的解释权问题尚有争议。——译者注尽管如此,刑事司法系统的参与者已经在使用算法来确定警察的人选、假释的对象以及刑期的长短。② 参见Jessica Saunders,et al.,“Predictions Put into Practice:A Quasi Experimental Evaluation ofChicago’s Predictive Policing Pilot”,inJ.Experimental Criminology,2016,12,pp.350-351.(探讨了预防性警务中的热区问题);Julia Angwin,et al.,Machine Bias,Propublica,May 23,2016(探讨了在刑事责任认定中使用算法的风险系数);Joseph Walker,State Parole Boards Use Software to Decide WhichInmates to Release,Wall St.J.,Oct.11,2013.

  我们可以从三个不同方面来深入探索人工智能在结果决策中的作用。第一个方面涉及对程序和过程在特定环境下试图实现的目标和价值进行界定。如果不彻底了解法律、规范和其他保障措施试图实现的目标,那么我们就无法评估现有系统是否足够,更不用说设计新的系统了。③参见Danielle Keats Citron,“Technological Due Process”,inWash.U.L.Rev.,2008,85,pp.1249-1313.(探讨了技术正当程序的目标);Kate Crawford,Jason Schultz,“Big Data andDue Process:Toward a Framework to Redress Predictive Privacy Harms”,inB.C.L.REV.,2014,55,p.110(探讨了正当程序与大数据);Joshua A.Kroll et al.,Accountable Algorithms,inU.Pa.L.Rev.,2017,165,p.633(认为当前的决策程序并没有跟上技术发展的脚步)。这种保障措施所固有的权衡和紧张局势使这一任务更加复杂,如美国《联邦民事诉讼规则》同时要求“公正、迅速和平价”的诉讼程序,④ FED.R.CIV.P.1.我要感谢我的同事伊丽莎白·波特(ElizabethPorter)。再比如美国宪法第六修正案为了确保公正的刑事审判规定了各种限制条件,但同时又要求审判必须迅速。⑤ U.S.CONST.amend.VI(规定被告有权知晓指控的性质和原因、与对他不利的证人面对面质证、强制有利于他的证人作证以及得到律师的帮助,这一切都是迅速和公开审判的一部分)。

  第二个方面涉及确定哪些目标和价值可以并且应当被引入机器语境之中。作为一项技术,深度学习在建立关联关系上是有效的,但却无法产生或阐明一种因果关系。⑥See Jason Millar,Ian Kerr,Delegation,Relinquishment,andResponsibility:The Prospect of Expert Robots,in Ryan Calo,etal.eds.,Robot Law,Edward Elgar Publishing,2016,p.126.人工智能可以预测将会发生什么,但不能告诉你为什么。如果是这样的话,那么多层神经网络的输出很可能是不适当的宣誓人、糟糕的证人或者事实司法认定的不当依据。⑦ 参见Jason Millar,Ian Kerr,Delegation,Relinquishment,andResponsibility:The Prospect of Expert Robots,in Ryan Calo,etal.eds.,Robot Law,Edward Elgar Publishing,2016,p.126;Michael L.Rich,“Machine Learning,Automated Suspicion Algorithms,and the FourthAmendment”,inU.Pa.L.Rev.,2016,164,pp.877-879(探讨了新兴技术与当前宪法第四修正案审判的关系);Andrea Roth,“Machine Testimony”,inYale L.J.,2017,126,p.1972(探讨了机器作为证人的话题)。事实上,起诉自由裁量权、宽大规则⑧ 宽大规则要求法院严格限制刑事法规的解释,即使立法意图似乎倾向于更广泛的解读。例如,在McBoyle v.United States,283 U.S.25,26-27(1931)案中,法院就拒绝将“盗窃车辆”的法规扩展到“盗窃飞机”上。有关将法律转换为机器代码的限制的讨论,请参见:Harry Surden,Mary-Anne Williams,“TechnologicalOpacity,Predictability,and Self-Driving Cars”,inCardozoL.Rev.,2016,38,pp.162-163。以及行政赦免等概念根本不允许机械化。而诸如取消个人生命维持等决策,会引发对人的尊严的根本关切,因此,即使是客观上设计良好的机器也可能无法作出这种决策。⑨ 参见James H.Moor,“AreThere Decisions Computers Should Never Make?”,in Nature&System,1979,1,p.226。下文有关武力使用的部分也反应了这一担忧。

  第三个方面涉及在实践中设计和审查结果决策系统。人们普遍认为,这种系统应该是公平、负责任以及透明的。⑩See Kate Crawford,et al.,The AI NOWReport:The Social and Economic Implications of Artificial IntelligenceTechnologies in the Near-Term,2016,pp.6-8;Danielle Keats Citron,“Technological DueProcess”,inWash.U.L.Rev.,2008,85,pp.1249-1313;“Fairness,Accountability,and Transparency in Machine Learning”,FAT/ML,http://www.fatml.org(2017年10月14日访问)。然而,其他的价值——如效率——则不太受重视。但是人工智能驱动的司法系统的总体效率与其在个别案件中的公正性或准确性是不同的,这显然是一个重要的遗漏。俗话说,“迟来的正义已是非正义”:我们不应该把目标界定为整个社会一年只为少数几个人提供完全公平、负责任和透明的程序。

  有趣的是,程序保障中固有的价值冲突似乎在机器学习文献中有关性能权衡的领域也能找到类似的对应,当然这种对应并不完美。①See Jon Kleinberg,et al.,InherentTrade-Offs in the Fair Determination of Risk Scores,Proc.InnovationsTheoretical Computer Sci.,2017,p.2.一些研究人员已经测量了系统提高透明度或减少偏见将会如何降低其整体准确性的问题。②See Jon Kleinberg,et al.,InherentTrade-Offs in the Fair Determination of Risk Scores,Proc.InnovationsTheoretical Computer Sci.,2017:p.1.相较于效率而言,准确性是公平的一个重要方面:我们不会认为通过掷骰子来确定刑期的长短是公平的,即使它对所有的参与者是透明的,并且对适用对象没有任何偏见。政策上的挑战包括如何管理这些权衡因素,要么通过设计技术社会化系统(techno-social systems)来最大程度地实现所有的价值,要么以社会认为有效的方式来接受某种特定交易。设计反映公正和平等的系统最终将涉及巨大的跨学科努力,并很可能被证明是我们这个时代的一个决定性的政策问题。

  (二)武力使用

  人工智能决策的一个特别情形涉及使用武力的决定。正如上文所提到的那样,有的决策——特别是涉及故意剥夺他人生命的情形——决策者可能永远都不会让机器来决定。这是许多有关自主性武器的研发和应用的辩论要点所在。③ 需要注意的是,武力使用在更多的情况下不是军事冲突。我们可能会追问,国内巡逻人员、警察甚至私人保安使用武力是否恰当。有关这些问题的讨论,请参见:Elizabeth E.Joh,“Policing Police Robots”,inUcla L.Rev.Discourse,2016,64:pp.530-542。国际社会普遍认为,人们决不应该放弃对杀人决策的“有意义的人类控制(meaningful human control)”。④See Heather M.Roff,Richard Moyes,MeaningfulHuman Control,Artifcial Intelligence and Autonomous Weapons,Article36,Apr.11,2016.然而,关于有意义的人类控制的含义和范围的争论一直不断。人类监督是否足够?进行目标选择是否满足这一要求?这个观点是否可以适用于防御系统,还是仅适用进攻战术和武器?这些重要问题都没有解决。⑤ 参见 Rebecca Crootof,“A Meaningful Floor for‘Meaningful HumanControl’”,inTemp.Int’Land Comp.L.J.,2016,30:p.54(“对于‘有意义的人类控制’的实际要求并没有达成一致”)。

  此外,我们还需要解决由谁来对机器的决策负责的问题。⑥ 肯尼斯·安德森(Kenneth Anderson)和马修·瓦克斯曼(Matthew Waxman)为人工智能武器的现实政治做出了重要贡献。参见KennethAnderson,Matthew Waxman,Law and Ethics for Autonomous Weapon Systems:Whya Ban Won’t Work and How the Laws of War Can,Hoover Inst.,Apr.9,2013。(主张自主性武器既是大家所追求的,同时也是不可避免的)在某些情形下,武器的自动化似乎是大家所追求的,甚至是不可避免的。例如,美国军方似乎不太可能允许其军事对手拥有比其自己的控制机制更快或更灵活的反应能力。⑦ See Kenneth Anderson,MatthewWaxman,Law and Ethics for Autonomous Weapon Systems:Why a Ban Won’t Work and How theLaws of War Can,Hoover Inst.,Apr.9,2013.无论如何,就有意义的人类控制达成共识,并不能排除在发生错误或战争罪行时对责任的所有调查。人工智能的某些用途以人为决定为前提,但隐含着深层次的政策和伦理问题——例如情报部门利用算法为遥控无人机选择攻击目标。⑧ 参见John Naughton,Death by DroneStrike,Dished Out by Algorithm,Guardian,Feb.21,2016(“美国中央情报局和国家安全局前任局长迈克尔·海登(Michael Hayden)将军说道:‘我们根据元数据杀人’”)。正如人类学家马德琳·克莱尔·伊利奇(MadelineClare Elish)所说的那样,我们担心士兵会落入圈套之中,他

标签:

责任编辑:liudan
在线客服