欧盟委员会发布《可信赖的人工智能道德准则草案》

2018-12-29 22:36 来源:澎湃新闻
浏览量: 收藏:0 分享

  欧盟近年来一直宣称自己是“可信赖人工智能”的推动者。12月18日,欧盟人工智能高级别专家组(AI HLEG)正式向社会发布了一份人工智能道德准则草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI,以下简称草案),该草案被视为是欧洲制造“可信赖人工智能”的讨论起点。

  这份草案首先为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。

  围绕这两大要素,草案给出了“可信赖人工智能”的框架。草案强调,其目的不是给出另一套人工智能的价值和原则列表,而在于为人工智能系统提供具体实施和操作层面的指导。

  草案共37页,第一章通过阐述人工智能应该遵守的基本权利、原则和价值观,试图确保人工智能的道德目的。根据第一章所阐述的原则,第二章给出了实现“可信赖人工智能”的准则和详细要求,既涉及道德目的,也涉及技术稳健性,既有技术层面的要求,也有非技术层面的要求。第三章则为“可信赖人工智能”提供了一张具体但非穷尽的评估列表。

  草案指出,其提出的准则并非旨在取代任何形式的政策和规章,同时,这些准则应该被视为活文件,需要定期更新以适应技术发展的需求。

  草案的一大亮点在于其特辟一个章节讨论人工智能所引发的争议性问题。这些问题引起了欧盟人工智能高级别专家组的激烈讨论且尚未在组内达成一致意见。

  位于列表第一的争议性问题是“未经知情同意的识别”。有迹象表明利用人脸识别对公民进行监控的情况开始在欧洲出现。不久前,英国警方宣布,他们正在伦敦对圣诞节的购物者们进行人脸识别的测试。人工智能中的人脸识别等技术使得公共或私人组织能够有效的识别个人。草案认为,“为了维护欧洲公民的自主权,人工智能的这一使用需要得到适当的控制”。具体而言,区分个体识别与个体跟踪、目标监视与大规模监视对于实现“可信赖人工智能”至关重要。

  另一个专家组热议的话题是“隐蔽的人工智能系统”。发展人工智能的其中一种目标是建立像人一样的系统,但越来越像人的人工智能系统却会给人类带来了困扰。草案认为,一个人必须总是知道他是在与人类还是机器进行交流,这一点也应是AI开发和管理人员的职责。专家组提出,人们“应当牢记,人与机器之间的混淆会产生多种后果,比如依恋、影响或降低作为人的价值。因此,人形机器人和机器人的发展应经过仔细的道德评估。”

  “致命自主武器系统”也是专家组重要关切之一。草案称,目前有数量未知的国家正在研发自主武器系统。这些武器系统中有能够选择性瞄准的导弹,还有具认知能力、可在无人为干预的情况下决定作战对象、时间和地点的学习机器等。专家组认为这会引起不可控的军备竞赛。

  对于以上这些争议话题,草案给出了一个关键性指导准则。首先是AI的开发、部署和使用应以人为中心,须反应公民的福利、无害、人类自主、争议和可解释性等社会价值观和道德原则。其次是评估AI对人类及其共同利益的可能影响,尤其需要注意儿童、残障人士和少数群体等弱势群体的情况。第三是人们需要承认并意识到人工智能在为个人和社会带来实质性好处的同时也可能产生负面影响,人们需要“对严重关切的领域保持警惕”。

  目前,草案处于征集意见阶段,征集时间将于2019年1月18日截止。据悉,该草案将于2019年3月提交到欧盟委员会。

  欧盟人工智能高级别专家组于2018年4月由欧盟委员会任命,组内有52位代表学术界、工业界和民间社会的独立专家。该专家组的主要职责是撰写人工智能道德准则并为欧盟提供政策和投资建议。

  人工智能(AI)的公平性及道德规范在 2018 年成为重要议题,现在法律规范力量准备介入。欧盟委员会(EC)任命的人工智能高级专家小组(AI HLEG)刚刚发布了 AI 开发和使用的道德草案—可信赖 AI 的道德准则草案(Draft Ethics Guidelines for Trustworthy AI),内容长达 37 页,提出可信赖 AI 应具备两大要素,以及 AI 不可为的基本原则。

  欧盟委员会在 2018 年 4 月发布了欧洲人工智能方法(European approach on AI)之后,成立了人工智能高级专家小组,由 52 名来自学术界、工业界和民间社会的独立专家所组成,而此次的 AI 道德准则草案第一版就是由这个高级专家小组所制定。从现在到 2019 年 1 月 18 日为对外开放征求意见的期间,预计到了 2019 年 3 月,AI HLEG 将向欧盟委员会提交最终版本的指导方针,以及提出如何推进这项工作的建议,目标将欧洲的道德方法带入全球舞台,此外,欧盟委员会目前也正在向愿意分享相同价值观的所有非欧盟国家开放合作。

  可信赖 AI 的两大要素

  AI HLEG 表示,AI 无疑是这个时代最具变革性的力量之一,必将改变社会结构,我们必须确保最大化 AI 的优势,同时降低风险,因此需要以人为本的人工智能方法,AI 的开发和使用不应被视为一种手段,应视为增加人类福祉的目标。“可信赖的 AI ”(Trustworthy AI)将成为人类的北极星。

  欧盟 AI 道德准则草案指出,可信赖的 AI 有两个组成要素:一、应尊重基本权利,适用法规、核心原则和价值观,以确保“道德目的”(ethical purpose),二、兼具技术鲁棒性(robust)和可靠性,因为即使有良好的意图,缺乏技术掌握也会造成无意的伤害。另外,AI 技术必须足够稳健及强大,以对抗攻击,以及如果 AI 出现问题,应该要有“应急计划”(fall-back plan),例如在 AI 系统失败了,必须要求交还由人类接手。

  另外,可信赖 AI 的不可为,包括不应以任何方式伤害人类;AI 不应限制人的自由,换句话说,人们不应该被 AI 驱动的机器征服或强迫; AI 应该公平使用,不得歧视或诬蔑;AI 应透明地运作,也就是说,人类需要知道 AI 正在开发的目的,以及如何使用它;AI 应该只为个人和整个社会的福祉而发展

  草案也提出了框架,第一章阐述 AI 必须遵守的基本权利和价值观,以确保 AI 符合道德目的。第二章则是实现可信赖 AI 的指导方针,同时兼顾道德目的和技术稳健性,并列出可信赖 AI 的要求,包括技术和非技术方法。第三章则提供了具体但非穷举的可信赖 AI评估表。

  从科研、企业的呼吁进展到国家规范,AI 的道德监管进入新高度

  近年来 AI 技术在多个应用领域展示了良好的进展及高效率,但同时也浮现不少问题,包括使用有歧视的数据就会训练出歧视人的 AI 模型,侵犯某些群体的权益,以及广泛的面部识别技术与民众隐私的矛盾,更让世人震惊的莫过于利用 AI 发展出智能武器,很可能在未经人类下达命令的情况下就发动攻击,这些 AI 不受控的问题,让许多科学家、企业、政府感到忧心,过去对于应该制定 AI 规范的意见,多来自科研及行业界的呼吁。

  不久前,微软总裁 Brad Smith 也发出公开信,针对面部识别技术的问题提出六大原则,包括要求透明度、启用第三方测试和比较、确保有意义的人类审查等,并承诺在 2019 年第一季度末,微软就会实施这些原则,他同时也向美国政府呼吁,应在 2019 年开始立法来规范 AI 面部识别技术的使用,“面部识别精灵刚从瓶子中出现,除非我们尽快采取行动,否则我们在五年后醒来,才会发现面部识别让社会问题变得严重,”Brad Smith 说,因为面部识别系统可能存有偏差,在某些情况下,将违反禁止歧视的法律,且若广泛使用也可能侵犯民众隐私。

  而欧盟在 2018 年 5 月正式让通用数据保护条例(GDPR)上路,提高个人数据使用的公平性和透明度,防止企业滥用或忽略用户数据的保护,此次欧盟又正式提出了 AI 道德准则,象征 AI 的公平性、透明、道德性的规范正式进入一个更高的治理层次。

标签:

责任编辑:bozhihua
在线客服