人工智能面临的两难困境

2019-04-29 11:18 来源:网电空间战
浏览量: 收藏:0 分享

  一、简介

  人工智能(AI)的快速进步和发展引发了对其两用应用和安全风险的绝望猜测。从自动武器系统(AWS)到面部识别技术再到决策 算法,人工智能的每一个新兴应用都会带来好的和坏的。正是人工智能技术的这种双重性质不仅给各国的个人和实体带来了巨大的安全风险:政府,行业,组织和学术界(NGIOA),还有人类的未来。

  现实情况是,任何新的人工智能创新都可能用于有益和有害的目的:任何可能提供重要经济应用的单一算法也可能导致以难以理解的规模生产前所未有的大规模杀伤性武器。因此,对基于人工智能的自动化的担忧正在增加。

  随着机器学习、计算能力、无边界投资和数据可用性的进步,AI具有潜在的通用应用程序,这一事实使所涉及的安全风险呈指数级复杂化。此外,由于AI的整合对于人眼是不可见的,因此认知任何事物和所有事物的能力从根本上改变了安全性。AI的自动化和智能化带来了希望以及潜在的破坏。

  二、计算能力的普遍化

  计算技术的发展造成技术发展、知识、信息和智能的普遍化。数据分析和处理技术的快速发展将网络、电子、量子和自治武器与核武器、生物武器和纳米武器一起定位在能够对人类造成灾难性伤害的精英武器俱乐部中。

  这是因为连接的计算机、网络和网络空间已经成为NGIOA所有数字流程的重要组成部分。由于计算机代码和连接的计算机已经将网络空间连接到地球空间和太空,所以现在一切都被控制或通过网络空间。

  由于人工智能有可能被整合到网络空间、地球空间和空间(CGS)中的几乎所有产品和服务中,以使其智能化,这种不断发展的认知能力从根本上改变了CGS中人类的安全格局。

  现在:技术、计算能力、编程语言、计算机代码、加密、信息、大数据、算法、投资,它们都有双重用途。

  当任何人和每个人都可以访问数字数据,必要的机器学习技术和计算能力来为自己的议程创建AI时,很难管理出现的复杂安全挑战。不仅潜在的大规模杀伤性武器数量在增加,攻击面和敌人也在增加。人工智能双重威胁所带来的安全风险正在变得严峻。这给我们带来了一个重要的问题:人类的生存、安全和可持续性是否应留给个人的智慧,他们可能会或可能不会被告知人工智能的潜在双重用途性质?也许现在是开发AI框架的时候了。

  三、数据的普遍化

  随着网络空间中的数字数据变得有争议,大数据的普遍引入了全新的世界秩序。这个新的世界秩序为我们带来了一个新的现实 - 任何地方的任何人都可以访问数字数据并将给人类带来好与坏。今天,任何有欲望并知道如何访问大数据并拥有数据科学能力的个人或实体都可以将其用于他们想要实现的任何情报,自动化,监视和侦察,无论他们的教育,背景,地位或意图如何。

  虽然大数据的普遍化带来了普遍的可访问性,并为NGIOA的个人和实体提供了强大的支持,但它也给我们带来了许多重大的安全风险。任何有或没有接受过正规培训的人,都可能无意甚至故意地对社区,种族,种族,宗教,民族和人类造成混乱,灾难和存在风险。

  由于数据是建立大多数人工智能系统所必需的,数字数据的民主化是否应该得到控制,没有任何责任和责任?

  四、人工智能

  人工智能,机器人,无人机等方面的最新发展为人类带来了巨大的潜力,但是大部分相同的进步都带来了通过偏见或致命算法进行无节制的情报,监视和侦察的危险,而这些算法都没有人做好准备。

  这些偏见和致命算法(基本上是算法,数据,计算能力和议程的功能)所产生的复杂安全风险因参与开发或部署人工智能的决策者通常不关注基本问题的现实而更加复杂。例如,“安全性”。因此,建立“人工智能安全”发展的可持续文化不仅需要使人工智能研究人员,投资者,用户,监管者和决策者意识到人工智能开发的双重用途(无论算法的本质),但也教育那些涉及甚至更多的算法开发,最终可能成为一个两用的困境。

  正如今天各国所见:

  任何人都可以创建可以双重使用的算法

  任何人都可以购买必要的数据,工具和技术来创建算法

  远程开发人员代表任何人开发算法

  算法可以单独购买并集成用于任何目的

  自动化无人机正在崛起

  自主武器系统已成为现实

  具有自主权的AI系统已成为现实

  自主面部识别是现实

  AI算法容易受到威胁和操纵

  这提出了一个基本问题:来自各国的任何人,任何个人或实体如何能够获得必要的数字数据并探索为任何目的和议程创建人工智能的基础科学,而不会产生任何问责,监督和后果?

  需要时,需要对这种人工智能的开发进行审计,制图,治理和防范。

  今天的人工智能开发和景观在许多方面引入了不确定性。因为AI是软件并且不仅建立在军方使用的武器系统中,而且建立在NGIOA使用的每个智能应用程序中,每个基于AI的应用程序具有双重用途的潜力是一个不容忽视的现实。

  五、安全困境

  在人类历史的大部分时间里,安全的概念和方法主要围绕着使用武力和地球空间的领土完整性。随着安全的定义和含义在人工智能领域受到根本性的挑战和改变,传统安全是关于从地理边界内部或跨越地理边界对地球空间各自国家的暴力的概念现在已经过时,需要进行评估和更新。

  这个全新的人工智能世界的出现,或多或少地像今天的外星人领域,那里知之甚少,而且大部分是未知。这引发了恐慌、不确定性、竞争和军备竞赛,并引导我们走向一个没有边界或限制的新战场,这个战场可能涉及也可能不涉及人类,也无法理解和控制。

  不断发展的人工智能威胁和安全的挑战和复杂性跨越了空间、意识形态和政治的障碍,要求各国所有利益相关者进行建设性的协作。集体NGIOA头脑风暴是必要的,能够客观地评估什么是威胁以及如何保护它!

  虽然关于人工智能的结构、作用和双重用途的辩论将在未来几年继续进行,但任何重新定义人工智能安全的尝试都需要从识别、理解、纳入和扩大人工智能安全威胁的定义和性质开始。虽然本文的重点是人工智能,但许多其他技术需要针对其双重用途进行评估。现在是时候开始讨论新兴技术的双重用途了。

标签:

责任编辑:bozhihua
在线客服