欢迎光临小说阅读网-爱阅读

当前位置: 短篇原创文学>军事

俄羅斯殺手機器人部隊的新發展已經被披露

2019-06-07 03:54:04 作者: 0人读过 | 我要投稿

  参考消息3月24道 英国《每日邮报》站3月22道称,俄罗斯在一段宣传视频中揭开了 杀器人 部队的面纱,该部队将在战场上协助步兵。

  报道称,俄罗斯先进研究项目上传至YouTube站的视频似乎展示了俄罗斯最新的无人技术,包括人工智能控制的无人驾驶坦克。该坦克跟踪士兵步枪瞄准的目标,并用自己的武器将之消灭。

  俄羅斯先進研究項目基金會說,他們的最終目標是擁有一支完全由人工智能算法操控的機器人部隊。

  目前,无人机被派遣与步兵一起行动,步兵远程遥控无人机,而在未来,这一科技将实现完全自动化。

  报道认为,这意味着军事装备在没有人为干预的情况下,将能够瞄准并消灭敌人。

  俄罗斯先进研究项目基金会发言人表示: 作战机器人的进化路径是,机器人在自动模式下完成任务的能力越来越强,而操控者发挥的作用逐渐减小。

  世界上的超级大国都在研究自动驾驶和远程遥控的交通工具,以改变现代战争的面貌。

  本月早些时候,英国陆军宣布,计划将200架 比人手还小的 微型无人机部署到战场上,为士兵提供 空中之眼 。

  这些迷你无人机被戏称为 黑色大黄蜂 ,它们能够接手监视和侦察任务。

  这些任务可能危及生命,目前都是由士兵来完成。

  报道称,英国国防部为机器人系统投资了6600万英镑(约合8700万美元),该系统还将包括自动运输物资无人机。

  关于这些装备发展,专家发出警告。2月举行的世界上规模最大的科学家大会称,杀器人是 对人类的严重威胁 ,应该禁止。

  科学家和人权运动者在华盛顿举行的美国科学促进会年会上说,无需人类帮助、能自动选择目标的致命机器人代表着继火药和核武器之后的 第三次战争革命 。

  报道认为,正如国际社会一致同意严格限制地雷使用一样,国际社会也应达成类似协议,阻止确立机器人杀手的地位。

  解禁“杀人机器人”?美军AI发展战略涉伦理争议

  参考消息2月15道 据英国《每日邮报》站2月14道称,美国军方希望扩大人工智能(AI)在战争中的应用,但表示会注意按照国家价值观部署该技术。

  报道称,在一份17页的报告中,五角大楼阐述了如何向未来的军事行动注入人工智能,以及如何跟上俄罗斯和中国在未来技术方面的进展。

  这份名为《利用人工智能促进我们的安全与繁荣》的报告标志着,五角大楼首次就如何应对人工智能的兴起制定了战略。

  该战略规划要求加快在全军使用人工智能系统,执行从情报搜集行动到预测战机或舰船维护问题等一系列任务。它敦促美国在被其他国家削弱其技术优势之前,迅速推进此类技术。

  报告称: 其他国家,尤其是中国和俄罗斯,也在为军事目的对人工智能进行大量投资,其中包括那些在国际准则和人权方面受到外界质疑的应用。

  报告几乎没有提及自动化武器,但引用了2012年的一项要求人工掌控的军事指令。包括美国在内的少数几个国家,一直在联合国阻挠国际社会对 杀人机器人 设下禁令。有朝一日,这种完全自主的武器系统可能在没有人类干预的情况下发动战争。

  美国认为,试图对 杀人机器人 进行监管还为时过早。

  报道认为,五角大楼本周公布的这项战略报告的重点是更即时的应用,但即便是其中的一些应用也引发了伦理辩论。

  去年谷歌的内部抗议导致这家科技公司退出Maven项目后,五角大楼在人工智能领域遇到了障碍。Maven项目是利用演算法分析冲突地区的航拍图像。

  其他公司试图填补这一真空,五角大楼正与业界和学术界的人工智能专家合作,为其人工智能应用制定伦理准则。

  美国雷神公司人工智能部门副总裁托德 普罗伯特说: 我们所看到的一切都是由人类决策者来决定的。

  普罗伯特说: 该项目正在利用技术帮助加快这一进程,但并没有取代现有的指挥结构。

  ( 10:29:27)

  专家警告:杀人机器人军备竞赛或导致对平民屠杀

  参考消息11月21道 英国《明星》站11月17日发表了题为《杀人机器人军备竞赛》的报道。

  一名人工智能专家透露,美国、英国、俄罗斯、以色列等国正卷入一场打造杀人机器人军团的竞赛。

  从自主射击枪械和无人机到遥控超级坦克,美国和俄罗斯的原型机器人已经打造成功并整装待发。而人形机器人上战场也不过是几十年内就会出现的事情 并为这个世界勾勒出可怕的前景。

  英国设菲尔德大学的人工智能与机器人学荣誉教授诺埃尔 沙尔基对本站说: 一场军备竞赛已经拉开序幕。

  沙尔基说: 我们现在看到,美国、以色列和俄罗斯(的杀人机器人军备竞赛)已经开始了。如果这些东西登场,那么它们随时可能意外触发战争。

  他还说: 怎样才能取缔它们?你完全可以把这些东西永远搁置起来,可它们只需再充一次电就能再次启动。

  如今,人工智能机器人正在全球掀起一股热潮。沙尔基教授担心,杀人机器人的研发可能也有着如此惊人的速度。因此,他正在领导一场禁止杀人机器人的全球运动。

  在本站披露了相关的最新进展 美国机器人做后空翻 后,这名专家警告说,俄罗斯的最新项目 绝对令人害怕 。

  沙尔基表示: 还有很可怕的东西 俄罗斯人研发出了这个被称为 超级坦克 的东西,而它是世界上最先进的坦克,领先很多。它绝对是一个拥有巨大破坏力的庞然大物,而且他们可以远程遥控它。他们还在努力以最快速度把它变成一种全自动的机器人。

  虽然自主武装机器人比人形机器人领先很多年,但沙尔基教授担心,可能出现的人形机器人也许会给世界带来灾难 导致对平民的大屠杀。

  在警告杀人机器人的可怕后果时,沙尔基教授说: 这不可能符合战争法,它们能区分某个目标是军事目标还是民用目标吗?这是战争法的关键。

  他说: 杀死试图投降的人也是不允许的。我知道很多人以为投降就是举白旗,其实投降是指任何表明不再战斗的姿态,比如手无寸铁地躺在地上 但机器人无法对此加以区分。我个人最大的担心是,这会对全球安全造成怎样的破坏 因为一场此类武器的军备竞赛已经拉开序幕。

  资料图片:能做后空翻的美国机器人。(英国《明星》站)

  ( 10:14:24)

  德媒称联合国欲约束“杀人机器人”发展 至今无果

  参考消息11月16道 据德国《每日镜报》站11月13道称,在不久的将来,完全自主行动的杀人机器人将在战场上决定人们的生死。

  关于禁止或者至少是限制此类武器系统使用的讨论近年来一直没有停止,但至今仍毫无结果。联合国近期开始在日内瓦就此进行讨论。

  什么是杀人机器人?

  它的正式名称为 致命自主武器系统 。目前还没有普遍有效的定义。联合国和国际红十字会是这样解释的:它无需人类的帮助就可以确定目标、发动攻击并清除目标。换句话说,一旦编好程序,这些武器系统可以独立分析数据,导航至作战地区并使用机关炮或火箭等武器。近年来人工智能领域的巨大进步构成了杀人机器人发展的基础。

  已经在使用的无人机目前还是由士兵操控的,因此它(还)不是杀人机器人。尽管距离它独立操作似乎并不遥远。

  发展到何种程度了?

  负责军备的俄罗斯副总理罗戈津今年春天发布过一段视频,里面可以看到《终结者》似的类人杀人机器人。这更多地属于宣传范畴。外观是否与人类相像一点都不重要。人权观察组织的专家认为, 美国、英国、中国、以色列、俄罗斯和韩国开发的武器系统自主性都在增大 。目前已经有原型机在使用当中。

  支持者辩称,它将令军人的危险最小化。但恰恰这点可能会导致门槛的降低并令战争增多 从而导致更多的平民伤亡。人们已经可以在远程操控的无人机的使用中看到这样的发展。

  图为美国装备的军用无人机

  后果谁来承担?

  这是与杀人机器人密不可分的一个根本性的伦理问题。合乎伦理和道义的行动,善与恶、对与错的区分,对后果的评估,对自身行为的承担,所有这些在未来战争中都不存在。机器人虽然有人工智能,但却没有怜悯或悔恨等情感,它没有任何的愧疚感。对于适度等概念它无从下手。但这却是写在所谓的战争法当中的:冲突各方必须避免不必要的破坏并避免给对方带来不必要的伤痛。必须善待平民、受伤、无作战能力和被俘的军人。专家认为,这是无法编入程序当中的。2013年时,政策专家在给联合国人权委员会的一份报告中就警告说:这些 不知疲倦的战争机器 可能会令武装冲突变成无休止的战争 外交将没有可能来终止专门用来在即便是毫无希望的情况下也继续作战的机器的杀戮。

  法律规范如何确立?

  到目前为止,没有。本次联合国会议也不会立法,它只会在一份 政治声明 中摸索其政治、伦理和法律上的空间。禁令不在讨论范围之内。

  由于这些系统目前实际上还不存在,德国和法国一起建议先确定自主武器系统的定义。包括军工代表在内的一个技术专家小组将对新武器的风险进行说明。 国际停止杀人机器人运动 的代表认为这完全不够,必须提前对这些武器进行禁止。

  只有19个国家要求颁布禁令。在幕后阻挠的恰恰是在将人工智能与作战装备相融合方面领先的国家。最近,有100多名专家在一封公开信中写道,杀人机器人是在火药和核弹之后的第三次作战革命。如果新武器落入暴君和恐怖分子手中,等待人们的将是彻底的恐怖。

  ( 09:31:00)

  英媒:杀人机器人与现代战争密切相关 要求取缔或为时已晚

  参考消息9月8道 英国《卫报》站8月22日发表了题为《我们不能取缔杀人机器人 现在为时已晚》的报道。

  对于机器人技术和人工智能领域专家发出的取缔 杀人机器人 的呼声,有一种回应是:你们为什么没有早些想到这一点?

  在呼吁制定这方面禁令的116名专家当中,包括像特斯拉公司首席执行官埃隆 马斯克这样的重量级人物。他们说: 让我们采取行动的时间不多了。一旦潘多拉盒子被打开,就很难再关上。 但是或许这样的系统早就存在,比如由英国BAE系统公司研发的 雷神 隐身无人战机,或者由三星公司制造并被部署到韩国边境的SGR-A1无人哨戒机枪。自动坦克也在筹划之中,而人类对于会造成伤亡的无人机的控制正在变成只是程度大小的问题。

  不过从本质上讲,自从机器人问世,杀人机器人就伴随我们左右。1920年捷克作家卡雷尔 恰佩克创作的科幻剧本《罗素姆的万能机器人》让我们第一次拥有了机器人这个词。他笔下的人形机器人反抗并屠杀人类。从那以后,机器人一直在做这样的事情,从赛博人到终结者。关于机器人的故事很少有好的结局。

  甚至很难不在机器人世界末日即将到来的背景下去思考马斯克和与他一道发声的人所提出的这个问题。即便人类最终的命运没有面临威胁,我们也知道其中的某一台机器会出现故障,产生像《机械战警》中Omni公司的机器人警察所制造的那种混乱。

  这似乎让一个极为严肃的话题变得过于轻松。这些故事尽管引发了人们深层的恐惧,说到底不过是娱乐。不过,让这一讨论的焦点最终集中在机器人技术有好有坏上,进而暗示只要我们避免坏的技术,就会天下太平,这样的方式未免过于简单。

  这个问题要更为复杂。一方面,这涉及更广泛、也越来越紧迫的机器人道德规范的问题;另一方面,这也关乎现代战争的本质。

  我们如何让自动技术系统既安全又遵守道德规范?避免机器人给人类造成伤害是阿西莫夫在小说《我,机器人》中所探讨的主题,这本科幻小说短篇集对后世影响巨大,以至于阿西莫夫的 机器人三定律 如今有时几乎与牛顿的三大定律一样重要。具有讽刺意味的是,阿西莫夫的小说主要是关于这些出发点良好的定律如何在一些情况下遭到破坏的。

  无论如何,道德问题不能简单地被当做一个放之四海而皆准的原则。历史学家尤瓦尔 诺亚 哈拉里指出,无人驾驶汽车需要一些行为准则来确定在面对不可避免并有可能致命的碰撞时应该怎样做:机器人应该去救谁?哈拉里说,或许我们会得到两种模式:利己主义(把驾驶员的生命放在第一位)和利他主义(把别人的生命放在第一位)。

  人权观察 组织2012年的一份关于杀人机器人的报告带有些许科幻色彩。报告说: 将害怕的平民与具有威胁性的敌方战斗人员区分开来,需要士兵了解一个人行为背后的动机,这是机器人办不到的事情。 此外, 机器人不能受到人类情感和共情能力的约束,而这种情感和共情能力会对杀戮平民的行为起到重要的阻止作用。 但是前面的说法是在表达一种信仰 使用生物特征识别技术的机器人在作出评估方面难道不比用直觉去判断的惊恐的士兵更胜一筹吗?至于后面的说法,给人的感觉是:有时的确如此。但是另外一些时候,身处战区的人也会肆意强奸和屠杀。

  这样说不是要反驳报告对于自动机器人士兵的恐惧,我本人也同样对这样的前景感到害怕。不过,这让我们又回到了一个关键的问题上,这个问题无关技术,而是关乎战争。

  目前我们对于战争伦理的看法已经带有强烈的随心所欲的色彩。 人权观察 组织的报告说: 使用完全自动的武器带来了问责方面的严重问题,这会破坏在平民保护方面的已有手段。 这样的观点不假,但是只要核武器在国际范围内是合法的,这种说法在道德伦理上就站不住脚。

  自动化军事技术的问题与不断变化的战争性质本身存在密切的关联,在恐怖主义和叛乱活动频繁的年代,战争不再有开始或结束,也不再有战场或军队:正如美国战略分析家安东尼 科德斯曼所言: 现代战争所带来的教训之一是,战争不再能称之为战争。 不管我们如何应对这一问题,战争都不会再像诺曼底登陆。

  古往今来的战争无不在使用当时可以获得的最先进的技术; 杀人机器人 也不例外。潘多拉的盒子随着炼钢技术的出现而被打开,或者打开得更早(而开启它的几乎从来都不是女性)。可以肯定,有人从中得到了好处。

  我们务必克制自己要铸犁为剑的冲动,不过让国际武器贸易行业不要制造杀人机器人就如同让饮料制造商不要制造橙汁。(编译/李凤芹)

  资料图片:图为英国 雷神 隐身无人战机。(图片来源于络)

  ( 00:14:02)

  “杀人机器人武器”人道吗?美日不愿开发受限

  资料:拆弹侦查机器人。

  据外媒报道,联合国外交消息人士10日透露,在明年开始的讨论代替士兵自动杀伤敌人的 杀人机器人武器 管制问题的联合国会议上,拥有先进的机器人技术的日本和美国将对制定相关公约等尽早管制措施持谨慎态度。

  日美担心在尚未明确 杀人机器人武器 定义的阶段就进行管制,还会影响民用机器人的开发。据悉,被认为有开发能力的美国不愿受到军事上的制约。

  关于 杀人机器人武器 ,2013年起在特定常规武器公约(CCW)框架下在日内瓦启动了讨论。今年4月举行的非正式专家会议建议设立正式专家会议,作为明年开展全面讨论的场所。在本月12~16日召开的CCW再讨论会议上预计将正式决定。

  迄今的讨论中,非政府组织(NGO)从人道主义观点出发,主张制定禁止开发 杀人机器人武器 的公约。因美国使用无人机攻击武装势力造成市民伤亡的巴基斯坦,古巴等国也积极支持实施管制。

  另一方面,日美要求各国慎重讨论。据联合国外交人士透露,预计日美将在正式专家会议上再次对尽早管制表明谨慎态度。

  联合国外交消息人士指出, 在正式专家会议上必须首先明确 杀人机器人武器 的定义及其在人道法上的定位。有关管控的讨论大概还在较远的未来。

  ( 09:33:02)

白带多应该吃什么
白带多粘稠怎么办
盆腔炎发病症状有哪些

本文相关的其他文章