当前位置:首页 >  聚焦  > 正文

美媒:人工智能恐升高意外军事打击风险

时间:2023-05-09 13:59:56     来源:参考消息

参考消息网5月9日报道美国《纽约时报》网站5月5日刊发题为《人工智能的下一个担忧:好莱坞机器人杀手成为军队的工具》的文章。文章称,当拜登总统去年10月参加竭力限制技术风险的技术主管们在白宫举行的一次会议时,他说:“你们所从事的工作具有巨大的潜力和巨大的危险。”


(相关资料图)

他的助理们说,这反映了最近的机密信息,即关于这项新技术颠覆战争、网络冲突以及最极端情况下动用核武器决策的潜在风险。

预感模糊不清,但却令人深感担忧。聊天生成预训练转换器(ChatGPT)会赋能此前无法轻易获取毁灭性技术的不良分子吗?它会加速超级大国之间的对抗,令外交和谈判时间所剩无几吗?

担任美国防务创新委员会首任主席的前谷歌公司董事长埃里克·施密特说:“业界在这个问题上并不愚蠢,你们已经看到它在努力进行自我规范。”

试用过ChatGPT初始软件版本的人都清楚这套系统的基本安全规则。比如,聊天机器人不会回答诸如如何冲泡一杯药物去伤害别人,或是炸毁大坝或严重毁坏核离心机这种问题——美国及其他国家都曾经在没有人工智能工具的情况下干过这些事儿。

但是,那些行为黑名单只能放慢滥用这些系统的进展;没有人认为它能完全阻止这类行为。总是会有绕开安全限制的黑客,就像总是有人试图关掉汽车安全带警报系统上的紧急报警声一样。

对五角大楼来说它并非什么新问题。研制自主武器的第一批规则十年前就公布了。

有些武器已经在运行自动驾驶仪了。击落进入领空的导弹或飞机的“爱国者”导弹早就有了“自动”模式;当来袭目标太多、速度超过了人类的反应时,导弹可以在无人介入的情况下自动发射。但是,它应当由人类监控,必要时可以中止攻击。

文章称,伊朗顶级核科学家穆赫辛·法赫里扎德被以色列情报机构“摩萨德”利用人工智能协助的自动机枪暗杀,尽管看起来是高度遥控技术。俄罗斯最近说它已开始制造海底“波塞冬”核鱼雷。如果确如俄罗斯所宣传的那样,那么这种武器将能够自动穿越海洋,避开现有导弹防御系统,在下水数天后发射核武器。

迄今尚未达成解决这种自动武器问题的条约或国际协议。在一个军备控制协议被废弃的速度高于谈判达成协议速度的时代,达成这种协议的可能性微乎其微。但是,ChatGPT及其类似软件提出的挑战是不同的,某些方面更为复杂。

军事方面,加入人工智能的系统能够大大加快战场决策速度,乃至造成全新的意外打击风险,或是加快基于误导性或故意谎报即将到来的袭击警报作出的决策。

施密特说:“在军事领域和国家安全领域,人工智能的一个核心问题就是如何防范速度超过人类决策的袭击。我认为这个问题并未解决。换言之,导弹来袭速度如此之快,以至于必须自动反应。那如果是假信号呢?”

好消息是,主要大国可能比较谨慎,因为它们知道对手的反应会是怎样的。但是迄今,尚未达成规则协议。

更大的风险或许来自于个体角色、恐怖分子、勒索软件团伙,或具备先进网络技能又能学习如何克隆ChatGPT的小国。它们也许发现生成式人工智能软件是加速网络袭击和发布针对性假信息的完美工具。

文章称,所有这些都预示着军备控制进入了一个新时代。一些专家认为,由于不可能阻止ChatGPT及类似软件的传播,所以最大希望就是限制专业芯片以及推动这项技术发展所需的其他计算能力。

标签:

推荐文章