AI制图
本月上旬,胶着的俄乌战场上发生了一个“惊爆”事件:乌克兰第3独立突击旅通过“电报”软件发布消息说,在哈尔科夫地区,他们首次成功地仅凭无人机和自杀式地面作战平台,迫使俄军士兵向无人装备投降。该通报称:“历史上第一次,俄军士兵在纯粹由机器人系统发起的进攻中投降。”
根据乌克兰方面的说法,当地时间7月9日,乌军先用无人机投送炸弹炸毁了俄军一个地下掩体的入口。当一台携带了3枚反坦克地雷的武装机器人钻入地下掩体时,俄军士兵主动表示投降,以避免即将发生的爆炸。随后,这些俄军战俘被乌军无人机和武装机器人押送到乌军防线,全程没有乌军士兵参与。
有评论称:这次行动标志着技术化战争达到了一个新的复杂程度。完全由机器人进行的战争,已不再是科幻小说创意。人类战争史翻开了新的一页。
紧接着,本月中旬,外媒又出现一则“科幻式”标题报道——《“终结者”从银幕走向现实:科学家研发出能自主生长和修复的机器人》。报道援引发表在《科技进展》杂志上的一项研究说,哥伦比亚大学的科学家推出了一款新型机器人,它能够通过整合来自环境或其他机器人的材料,即通过可互换模块构建机器人,从而实现自我组装、生长和修复。
这一过程类似于生物体吸收和整合资源的方式,研究人员将其称为“机器人代谢”。这种类型的机器人不仅能学习,还能改变自己的身体,这意味着相关研究向机器的完全自主化迈出了关键一步。在极端环境中,这可能大有用武之地,例如太空探索、灾难恢复或复杂地形建设。在这些场景中,物理适应性或许与推理能力一样重要。
这篇报道没有推想战场前景。不过,此类机器人倘若用在军事上,就像科幻电影《终结者》和《机械战警》所呈现的那样,绝对也是雷霆震撼。曾记否,在2009年上映的科幻电影《终结者2018》中,冒出了一个天网电脑网络系统,它操纵着很多种用于追猎和杀戮的机器人,看着令人胆寒。现实中又如何呢?早前有一位美国科学家披露,曾有军方人士找上门来,对他说:“哦,我们想请你设计一种无人机,就是《终结者》里的那种猎杀者。”
有预测说,2050年自主武器系统有可能代替人类成为战场上的主力。它或许同时具有侵犯性、滥杀性、残酷性、失控性等特征,也因此而存在人权和人道主义风险。
事实上,近年来,人工智能与武器的结合可能导致的伦理后果,已成为多个领域热议的话题:由于人工智能在决策和行动的自主性上正脱离被动工具的范畴,人类应该如何进行约束,才能使其判断和行为符合人类的真实意图和价值观,也不与法律及伦理等规范相背离?特别是,在一个充满敌意、竞争激烈的世界里,人工智能因误解或误判而导致意外升级的风险,尤为令人担忧。有鉴于此,几年前联合国曾在重新审议《特定常规武器公约》会议上,专门讨论过“禁止人工智能控制的致命武器”问题,也曾要求立即暂停任何致命杀伤性自主机器人的研发工作。
8年前,本栏文章《当战争变得“文明”起来》(见2017年12月8日《科普时报》3版)亦就此做过探讨、提出问题:机器人是否应该被武装或究竟应该给予它们多大程度的自主性?杀人机器的研发者应该对自己研发的技术负个人责任吗?机器人学领域会不会重蹈核科学家的覆辙?机器人本身没有道德标准,所以无法让其决定某个生物的生死,那么,人类能够“教会”它们吗?
有道是:技术本身并无善恶,人类利用技术所做的选择,才是塑造世界的关键。
1948年11月,美国陆军上将奥马尔·N.布莱德雷在纪念第一次世界大战停战日的一次讲演中,说了一句意味深长的话,姑且引为本文作结:
“如果我们在发展技术中仍然缺乏智慧、不加审慎,我们的仆人就可能转而要我们的命。我们的世界在核力量上是巨人,在道德伦理上却是婴儿。”