北晚新视觉 > 深读 > 军事

人工智能参战是福是祸?美国机器战士早已杀戮多年

2018-08-11 10:21 编辑:TF010 来源:北京晚报

近日,美国《华尔街日报》提出意见,认为人工智能(AI)投入战争符合人道主义,该观点引发轩然大波。

资料图 “神经元”无人驾驶战斗机原型机

而俄罗斯近日则由国防部牵头,发布了一份“十点计划”,对未来俄军人工智能的研究工作以及各部门、各机构的协调分工作出了指导性概括。人工智能机器人投入战争,目前已经到了怎样的阶段?美俄两家各自又有何特点?

概念界定

长得都不像人且毫无情感

科幻作品中的机器人,很多外形和真人类似,不但能自主思维,甚至还有情感,这些都源自艺术创作需要。而真实的军用机器人,其实就是智能化的军用机器。相对普通的需要人工全程操作的机器,它们装备有自动化识别和人工智能系统,执行预定的工作指令,减少真人士兵的操纵任务。因此,军用机器人的核心是人工智能。

军用机器人的外形多数长得并不像人,也没有这个必要。他们的外形通常做成最适合完成任务的形状。比如陆战机器人目前都是装备车轮和履带,而不是双腿,这是出于战场行进速度的需要。

同样,机器人具备的人工智能,也无须做到像人的大脑一样复杂,更不会带有情感,因为机器人的智能只需要处理被预设的任务。智能化的巡航导弹也可以被看做是一种机器人,它的人工智能主要是具备目标识别和自控系统。当导弹发射出去后,除了接受来自后方的任务指令,还会根据当前获得的各种参数,如飞行速度、地形地貌等,调整飞行轨迹或发动攻击。这种对信息的处理和反馈,就是人工智能。显然,它一点也不神秘,仅仅是依照程序设定来完成对应的操作。同样,陆战机器人除了接受后方指令,也要根据周遭的地势、敌情等,决定是否攻击、如何攻击。这些和中学生编程的“如果输入1,则输出“世界你好”没有本质区别,只不过更复杂。

至于说很多作品中提到的“情感”,对军用人工智能则是毫无意义的模块。姑且不说实现情感的技术难度,单就需求而言,战争本来就是残酷无情的,就连真人士兵都需要压抑情感,谁还费那么大事儿去给机器人制造麻烦?

因此,现实中的机器人战士,就是一群披着钢铁外衣,在人工智能指挥下,凭指令和程序行事的冷血杀手。相比人类士兵,他们能更快地获取和处理信息并作出反应。他们不但具有更强大的机械力和火力,而且不怕牺牲,不怕恶劣环境,也不会因为情感干扰而犯人类士兵的错误。

参战历史

不能杀人?机器战士早已杀戮多年

自从二战后计算机的诞生,人工智能蓬勃发展,并很快投入到军用。不过,最初的机器人技术落后,只能自动从事简单的工作。比如说,在军工企业的流水线上干活。他们仅仅是根据指令指挥躯体工作,谈不上有什么真正的智能。

进入60年代,小型计算机快速发展,机器人对外界信息的感知能力大幅度提高,可以根据外界获取的信息调整自己的动作。到这一步,人工智能才真正出现,军用机器人也可以从事稍微复杂的工作了。1966年,美国一枚氢弹坠落到700多米的海中,担任打捞工作的就有军用机器人“科沃”。科沃实际上是一艘自动化无人潜艇,装备自动摄像机、声纳、推进器和机械手,在水面人员的协调下成功完成了打捞工作。

在科幻影视中,大家对机器人杀人抱有恐惧,似乎机器人杀人意味着世界的崩塌。科幻巨匠阿西莫夫很早就提出了机器人三原则,第一条就是机器人不能杀人,而且是优先级最高的。但这只是剧情理论而已。实际上,人工智能除了用于拆弹、扫雷、运输、侦查等军事任务,早就开始直接杀人了。

用机器人杀人最多的就是美军。美军的巡航导弹早已装备自动目标识别跟踪系统,数千次的发射,杀人不计其数。而无人机则是另一种机器杀手,其具有比巡航导弹更先进的信息获取、分析技术,除了指引导弹和战机攻击,很多无人机已经配上机炮与导弹,可以发动直接攻击。近来,单是在所谓反恐战争中,由美国中央情报局直接指挥的无人机每年就炸死数百人,其中很多被殃及的无辜平民。这种无辜杀戮,大部分是推给所谓“情报失误”。

这一点也引起大批部分科学家的诟病,认为深化军用人工智能,将会增加这种屠戮。

美军AI:

技术独到 涵盖全面

美国拥有领先全球的综合科技实力,其机器战士最是千姿百态,涵盖各个领域。美国军火方面订单丰厚,也不乏实战机会。早先,在智能导弹和智能无人机方面的研发应用,美国居于领先。除此之外,各种新型军用智能也层出不穷。例如美军已多次测试的X-47系列隐形无人战斗机,已经安装了自动巡航和攻击模块。相比传统无人机接受后方指令再开火,X-47据说可以“无须遥控员判断,直接决定是否杀人”。

成熟的“密集阵”舰艇防御系统其实也是人工智能控制的自动化武器。“密集阵”是美军上世纪80年代投入使用的,现已被多国仿效研发。该系统装备在大型军舰上,可以自动搜索对军舰造成威胁的目标(导弹或炮弹),一旦发现目标迫近,系统自动跟踪并锁定开火,反应速度极快,赶在导弹命中战舰前将其摧毁。目前的密集阵系统可以对10公里范围内进行自动搜捕打击。

“粗锯齿”是一款在履带式无人战车上加装AI的机器战士,它重达4吨,时速高达96公里,且配备360度旋转的高清摄像机与高敏感度探测器,能够检测地雷、炸弹及敌方人员。它装备一挺机关枪,目前开火还是由后方人员遥控,如果将其改为人工智能的自控火力,那么“粗锯齿”将成为突入敌阵屠杀的闪电恶魔。当然,如果敌我识别系统稍微出点儿岔子,它同样会屠戮无辜平民甚至是友军。

“徘徊者”多用途机器人也是一辆自主式战车,装备多种光电侦察设备、传感器、自动目标搜索系统和武器火控系统,还有旋转式炮塔。它的武器比“粗锯齿”更强,可以装备机枪、106毫米无后坐力炮以及反坦克导弹或防空导弹。一旦发现敌人并确认目标,就可以猛烈开火。

“罗伯特”突击扫雷机器人是由M60型坦克改制而成,在前面装有辊轮式扫雷器,可在探测到地雷时直接排除,也可在探测到感应式地雷后远距离引爆。

IRobot公司原本是以民用机器人为主的公司,在2003年伊拉克反战争爆发后,大力投入军用机器人的开发,如今该公司的数千台PackBot系列小型机器人正活跃在美国三军。这种小型机器人形如玩具履带车,有一条总长2米的机械臂,最大可拾举13.6公斤的重物,还具备很强的翻越障碍能力,平地时速14公里,能承担处置简易爆炸装置和搜寻可疑物品等任务。

美军装备的“步行机器人”摆脱了车辆的外形,不再靠轮子和履带行进,而是靠模仿动物的机械足。这样的优势是能够更灵活地通过各种复杂地形,缺点是速度不如车辆,而技术难度则要大得多。例如“奥德蒂斯”步行机器人长得像一只大章鱼,有6条细长的有关节的腿,可以攀高、下坡、翻越障碍。既可用于战场弹药物资的运输,也可以加装武器系统参加战斗;四条腿的“大狗机器人”在2010年投入了阿富汗战场。“大狗”的外形和大小都像一条真狗,自重75公斤,可以运输150公斤重的物资,以7公里的时速在高低不平的野地里行动。

“机器蜂”则是一款间谍神器。由哈佛大学研制,尺寸仅为指甲的一半,重量不到0.1克。其身体模拟昆虫的节肢,头部模拟蜂的眼睛,并带有自动传感器和电子控制设备,可以感知并对环境作出反应;两片翅膀每秒振动120次,能够完成垂直起飞和转向,并保持平衡。通过静电附着力,它能逼真地模仿昆虫停留在物体表面。

此外,还有在海底执行任务的自主式水下车辆AUV,能从事情报、反潜作战、拦截等军事任务。Hull Bug机器人则能够清除军舰上附着的海草、藤壶和软体动物。它采用类似吸盘的负压装置依附于船体,自动在船上爬动用自治传感系统探测目标,再用旋转的刷子加以清除,只需一天就能清除一艘船上的所有垃圾。

俄军AI:

形式粗暴 实战威猛

俄罗斯也拥有不少黑科技。当前,俄罗斯将军事实力增长点放在人工智能等尖端科技领域。国防部长绍伊古近来表示,正加紧进行军用机器人的研发、列装工作,预计今年内战斗机器人可投入量产;总参谋长格拉西莫夫则称,俄军正通过人工智能装备“发展非核手段战略威慑力量”;普京也曾多次表达对军用机器人的重视。

据相关专家介绍,俄军目前正使用数十套地面和水下机器人技术系统以及数百架无人机。而这远不是全部,俄军试图以此为契机,作为人工智能军事化进程的引擎。

俄军军用机器人在数量和规模上虽然不能与美军抗衡,但同样涵盖全面。无人机方面,包括有担任侦察、指挥和通信中继任务的“石榴-4”、“超光速粒子”近程无人机,“海鹰-10”、“前哨”等中型无人机,以及正在研发的“猎户座-Y”远程高速无人机。而“视界-600”等自主式无人潜航器已在海军服役;代号“美女-K”的核动力无人潜航器,航程达到洲际水平,航速超过现役舰艇数倍,其实就是核动力的无人潜艇。陆上机器人则包括侦查打击机器人、三防侦察机器人和放射物质侦察与运输机器人。另外还有排雷机器人、重型履带式多功能装甲机器人和保障空降作战的多功能机器人等正在研发之中。

值得一提的是,无人机作战方面是美国领先,而在陆地军用机器人的实战方面,却是俄罗斯占了先手。七年来,炮火连天的叙利亚战场使得俄罗斯损耗不少兵力,同时也提供了绝佳的练兵机会,这其中就包括人工智能作战平台的全面应用。在2015年,俄罗斯军队向某区域盘踞的200名武装分子发动了一次进攻。这次进攻,主力就是由“机器人军团”担负。其中,“仙女座”-D自动化指挥平台和数据链系统进行作战协调,参加战斗的包括总共不超过10台“平台”-M地面作战机器人和“阿尔戈”机器人,另有3辆“洋槐”自动火炮和3架无人机。

战斗中,俄军先派出无人机升空检测战场情报,由自动火炮进行火力准备。同时,机器人的操作员根据情报,操作战斗机器人抵近武装分子据点100米-120米,使用机枪和反坦克导弹进行攻击,遇上硬骨头,则根据无人机和机器人的情报,用重型自行火炮拔除钉子。叙利亚政府军的步兵则在战斗机器人身后150米-200米的安全距离,对残余的武装分子进行清扫。对于武装分子而言,看着庞大的战车机器人一路冲到眼前,还伴随着定点清除的重型火力,是很崩溃的。这种先进战术使得俄叙联军仅仅20分钟就歼灭70名武装分子,而己方只有三四人受伤,剩余的武装分子很快狼狈而逃。

媒体争论:

AI杀人符合人道?

《华尔街日报》的报道认为,从地毯式轰炸、大威力核弹,进化到精确制导武器,是把杀伤的范围越缩越小。智能化的武器只会减少战争中的误伤,不会带来更大的伤亡数字。近年来美军无人机的多次发生误伤平民事件,并非是智能化武器的错,而是武器还不够智能化。而五角大楼发展人工智能项目,正是为了更精确地识别、杀伤恐怖分子等敌人,防止误伤无辜平民。当然,即使是再先进再精准的人工智能,还是要看使用者。归根到底,军用人工智能,也只能按照美军自己的标准去执行甄别和发动进攻。

关于军用机器人的研发,一向饱受诟病。2013年,联合国人权机构的特别报告员克里斯托夫·海因斯就曾提交报告,呼吁各国冻结“杀人机器人”的试验、生产和使用,以避免“全自动杀人机器人”自主决定人类生死的情况。2017年,116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动,禁止“自主杀人机器”。今年4月,3000多名谷歌员工向CEO桑德尔·皮查伊联名上书,反对该公司参与五角大楼的军用人工智能项目,最后迫使谷歌不再续签相关合同。马斯克为代表的2400名机器人科学家也在斯德哥尔摩宣誓称绝不参与致命性自主武器系统的研制工作。

人权组织和科学家对“全自动杀人机器人”的担心,主要是伦理道德层面的。科幻影视中的机器人滥杀无辜,或是某台中央电脑产生邪恶意识,或是机器人本身由于故障或病毒或自主意识产生反抗、屠杀人类。但现实中,机器人滥杀无辜的可能性远不止这些。

有智能的机器也是机器,是机器就有出故障的可能,而且智能化越高,出故障的风险越大。全自动杀人机器导致的滥杀固然是可怕的;半自动杀人机器照样可能获取错误信息,造成对目标的误判;后方遥控信号可能被干扰,接收到错误的攻击指令;攻击系统也可能出错伤及无辜。

更可怕的是操作机器的人。即使软硬件不出故障,也可能因为操作者的疏忽大意甚至主观恶意造成误伤。美军在伊拉克、阿富汗打着反恐名义杀伤的大量平民,很多是不能怪罪到武器系统的。2011年美军无人机在巴基斯坦一次杀死4人,因为美军认为他们是武装分子,无人机只是执行命令。事后证明这4人中有3人是妇女儿童。

 

 

来源:北京晚报

相关阅读

北晚新视觉网版权与免责声明:

一、凡本站中注明“来源:北晚新视觉网或北京晚报”的所有文字、图片和音视频,版权均属北晚新视觉网所有,转载时必须注明“来源:北晚新视觉网”,并附上原文链接。

二、凡来源非北晚新视觉网或北京晚报的新闻(作品)只代表本网传播该消息,并不代表赞同其观点。

如因作品内容、版权和其它问题需要同本网联系的,请在见网后30日内进行,联系邮箱:takefoto@vip.sina.com。