微秒级战争:美军的人工智能算法武器
据国外媒体Medium报道,美国国防部正在大规模使用人脸识别技术,国防部长马克艾斯珀(Mark Esper)表示,他认为中国正在出售致命的无人驾驶无人机。在所有这些纷扰的信息之中,您可能会错过联合AI中心(JAIC)的中将杰克·沙纳汉(Jack Shanahan)的想法,他是五角大楼负责现代化和人工智能指令的负责人,他描述了算法战争的未来。
众所周知,算法战争可以决定性地改变战局,它的前提是未来战斗的发展速度比人类的决策能力要快。Shanahan表示,因此算法战一定程度上依赖AI系统,不过他强调实战使用AI之前必须进行严格的测试和评估,以确保它不会“有自己的想法”。
“我们将对未来战斗的速度、混乱、血腥和摩擦感到震惊,这场战斗有时可能仅会持续几微秒。我们如何预见战斗的发生?Shanahan 在与前Google首席执行官Eric Schmidt和Google全球事务副总裁Kent Walker 的对话中说:“如果我们试图由人类来对付机器,敌人拥有机器和算法而我们却没有,那么我们失败的风险就会高得令人难以接受。”
三人本周二在华盛顿的国家安全委员会AI会议发言的前一天交付了其第一份国会报告,参与该报告编写的不乏一些人工智能和科技界的大腕人物,包括微软研究院主任埃里克·霍维茨、AWS首席执行官Andy Jassy和Google Cloud首席科学家Andrew Moore。最终报告将于2020年10月发布。
五角大楼最早通过Maven项目涉足算法战和一系列AI项目,该计划旨在与Google这样的科技公司以及Clarifai这样的初创公司合作。该项目两年前由Schanat和国防创新委员会提议,由Shanahan担任总监创建。
Shanahan说,在算法战时代,五角大楼需要将AI部署到军队各个级别服役人员,以便对问题有第一手知识和信息的人可以使用AI来实现进一步的军事目标。Shanahan承认:去中心化的开发、实验和创新方法伴随着更高的风险,但他认为这对赢得战争至关重要。
美国国家安全AI委员会(NSCAI)关于AI的报告草案中涉及了算法战,该报告丝毫不讳言AI对美国国家安全的重要性,并明确指出“ AI的发展将塑造未来力量。”
“人工智能革命的融合和大国竞争局面的重新出现,必须引起美国的关注。这两个因素威胁着美国作为世界创新引擎的地位和美国军事优势。” “我们处于战略竞争中,人工智能将成为中心。我们的国家安全和经济的未来受到威胁。”
该报告还指出,在AI时代,世界可能面临公民自由被侵蚀和网络攻击加速的威胁。报告中提到中国的次数足足超过50次,强调了当今中美AI生态系统的交融本质,以及中国到2030年成为全球AI领导者的目标。
值得注意的是,NSCAI的报告选择专注于垂直的人工智能,而不是目前还不存在的通用人工智能(AGI)。
“AGI的出现目前还有较多争议,报告指出,委员会短期内没有选择关注AGI,而是负责任地聚焦在“垂直”的AI系统。
上周,美国国防创新委员会(DIB)发布了针对美国国防部的AI伦理原则建议,该文件的撰写者包括LinkedIn联合创始人Reid Hoffman、MIT CSAIL总监Daniela Rus,以及来自Facebook,Google和Microsoft的高管。国防部和JAIC目前正在考虑采用哪些原则和建议。
谷歌前首席执行官埃里克·施密特(Eric Schmidt)同时担任NSCAI和DIB的董事会主席,并监督了这两个报告的编写。与施密特一起加入NSCAI的还包括由霍维茨(Horwitz)、茉莉(Jassy)和摩尔(Moore)以及前国防部副部长罗伯特·沃克(Robert Work)。
Maven项目,科技公司和五角大楼
在周二的会议上,施密特,沙纳汉和沃克重新审视了Google关于Maven项目的争议。当Google于2018年春季公开宣布参与该项目时,数千名Google员工联名签署了一封公开信,抗议公司参与军事相关项目。
在数月的员工动荡之后,谷歌制定并实施了自己的一套AI原则,其中包括禁止制造自动武器。
谷歌还承诺在2019年底之前终止其Project Maven合同。
沃克说:“人们对Google参与国家安全和国防项目的担忧令人沮丧。”沃克指出,谷歌正在与JAIC合作处理网络安全和医疗保健等问题。他补充说,谷歌将继续与国防部合作,并说:“这是实现这一目标的共同责任。”
Shanahan表示,AI在军事上的应用是大家共同的责任,认清这一点对美国国家安全至关重要,他承认在Maven事件中军方和科技界之间的不信任感加剧了。
谷歌所做的Maven计算机视觉工作是针对非武装无人机的,但Shanahan表示,科技工作者对项目的强烈反对表明了他们对科技公司与军方合作的广泛担忧,并强调需要此类项目需要更加明确地宣传项目目标。
他认为,AI技术方面,军队处于永远追赶的姿态,政府,企业和学术界之间的纽带必须加强,以使美国保持经济和军事至上的地位。
NSCAI报告还提到,学术界和企业界人士需要“重新认识他们对我们的民主健康和国家安全的责任”。
“无论您对政府未来使用人工智能技术的立场如何,我认为,如果没有行业和学术界的平等合作,我们永远无法实现委员会中期报告中概述的愿景。要采取进一步行动,势在必行。”Shanahan说到。
(人工智能)自主武器
Heather Roff是约翰·霍普金斯大学(Johns Hopkins University)的高级研究分析师,也是Google DeepMind的前研究科学家。她是DIB报告的主要作者,也是创建NSCAI报告的道德顾问。
她认为DIB报告的媒体报道中,引人注目地使用了自主武器(Autonomous Weapons)这个词,但通常没有考虑到AI在整个军队中的应用,例如后勤、计划和网络安全等领域。她还列举了AI在促进美军审计方面的价值,美军拥有世界上高的军事预算,同时也是美国最大的雇主之一。
Roff说,NSCAI报告的草案说自动武器可能有用,但补充说该委员会打算在来年解决道德问题。
Roff表示,关心使用自动武器的人们应该认识到,尽管有足够的资金,但军队今天仍面临着更大的结构性挑战。NSCAI报告中提出的问题包括服役人员甚至都不会使用开源软件或下载GitHub客户端。
“目前唯二在AGI上取得重大进展的是企业是DeepMind和OpenAI,也许包括部分Google Brain,但是国防部门并没有计算基础设施来开展类似OpenAI和Deep Mind的工作。他们(国防部门)没有计算资源、没有专业知识、没有硬件、也没有数据源或数据”Roff说。
NSCAI计划下次与非政府组织开会,讨论自动武器、隐私和公民自由等问题。
莉兹·奥沙利文(Liz O’Sullivan)是纽约ArthurAI的副总裁,也是“制止杀手机器人”人权观察运动的一部分。去年,在与同事一起表达对自动武器系统的反对后,她辞去了克拉里菲(Clarifai)的工作,以抗议Maven项目所做的工作。她认为这两份报告有很多实质性内容,但它们在重要问题上没有明确表示立场,例如是否可以使用有利于男性的历史招聘数据。
奥沙利文感到关切的是,两份报告中提到的2012年国防部指令都要求“适当水平的人类判断”,这句话被解读为自动武器将始终具有人类控制权。她宁愿军队采用联合国所提倡的“有意义的人为控制”的想法。
曾从事自动武器研究的Roff说,一个常见的误解是人工智能系统的部署需要一个人参与。对AI伦理报告的最新修改明确指出,军方必须掌握AI系统的总开关,一旦AI系统开始自行采取行动或试图避免被关闭,则军方必须能够彻底关闭系统。
“处于AI系统循环中的人员没有被报告提及的原因是:许多AI系统将自动执行,因为它将被编程为可以自动执行某项任务,并且不需要有人在循环中干预。Roff表示:“AI可以是一个决策辅助工具,或者输出结果,或者,例如在在网络安全领域,AI系统将能自动发现bug错误并自行对其进行修补,无需人类介入。”
尽管AI伦理报告的编写成稿通过了多轮公众评议,但奥沙利文认为DIB AI伦理报告和NSCAI报告依然缺少来自自动武器反对者的声音。
她说:“很明显,他们选择了一些大企业团体来代表行业,而且都是一些垄断性的组织和公司。” “这也解释了为什么该委员会中没有一个代表反对自治武器。他们叠床架屋创建这些小组时,必须知道自己在做什么。”
奥沙利文认可军方需要技术人员,但必须对这些人的工作内容心中有数。诸如Maven之类的基于计算机视觉的项目引起了人们的关注,因为AI是一种双重用途技术,为民用设计的物体检测系统也可以用于武器。
“我认为放弃整个政府行业对所有科技行业企业来说都不是明智之举。他们需要我们的帮助,但与此同时,在某些情况下,我们处于无法得知我们正在做什么窘境,因为它已经被保密或部分被保密了。” 奥沙利文指出:“科技行业内有很多人确实愿意与国防部合作,但是必须要有共识,必须让他们真正了解他们所执行任务的影响和严重性。以负责任的方式设计人工智能系统至关重要。”
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。
相关文章: