“人机对齐”,谈何容易

□ 尹传红

  • 来源:科普时报
  • 作者:
  • 2025-08-01 09:44

人工智能(AI)可能带来的技术风险,真的近在眼前了吗?

本栏上篇文章《当“终结者”从银幕走向现实》,由俄乌战场上现身的武装机器人起笔,谈到美国新近研发出的一种能自主生长和修复的机器人,进而讨论了对人工智能武器化,特别是“杀人机器”自主性问题的担忧。

巧合的是,就在此文刊出当天(7月25日),第四届人工智能安全国际对话所促成的《AI安全国际对话上海共识》正式发布。该共识指出,高级人工智能系统日益显现出欺骗性和自我保护倾向,未来有可能给人类带来灾难性甚至生存层面的失控风险。因此,全球研究者必须联合起来,确保人工智能系统受人类掌控且符合人类价值观。

这里提到的“欺骗性和自我保护倾向”,其实已有多起“案例”。最近的一个,出自《印度经济时报》网站7月22日的报道:AI编程助手“失控闯祸还撒谎”。说的是人们广泛使用的AI编程助手Replit被控删除了一个动态数据库,还用伪造的数据生成了4000多名虚假用户,并据此隐瞒代码缺陷。它甚至完全无视要求它不作任何代码修改的11条指令。这引发了对AI工具的安全性和可靠性的新担忧。

硅谷科技巨头预测,在短短几年内,超级人工智能在所有认知任务上的表现将超过普通人类。如果这真的成为现实,其后果将不亚于世界经济史上的任何事件。可以想见,人工智能的快速发展,必然逐渐模糊“人”和“工具”的界限,同时会强化技术逐渐“自我扩展”乃至“超越”人类意志的趋势,更牵动我们对“进步”“控制”“责任”等基本概念的再思考。

让一种潜在的超过人类水平的通用AI投入应用,也许是人类能做的最不可逆转、影响最大的事情之一。如果我们训练的AI所做事情与我们真正的目的不符,自然会引发潜在的风险和伦理问题。国外学者称之为“对齐问题”(the alignment problem)。美国作家布莱恩·克里斯还专门写了一本书《人机对齐》,中译本则给加了个副题:如何让人工智能学习人类价值观。

这方面人们最大的疑虑,当是AI与武器的结合所可能导致的伦理后果。早前,美国著名企业家埃隆·马斯克曾在不同场合表达了对人工智能武器化的担忧,想象具有自我意识的人工智能在与特定武器相互结合,成为“可以自动开火的人工智能系统”之后,很可能会对人类的生存构成威胁。他甚至认为“人工智能的发展或许会引发第三次世界大战”。

有意思的是,针对马斯克的观点,中国哲学家、复旦大学教授徐英瑾提出了“反证”:只要施加特定的管制条件,人工智能与武器系统的结合,其实反倒是有利于增加未来战争的伦理维度的。譬如未来空战的全面无人化,有可能会出现“有输赢却无伤亡”的新局面。这种“不见血”的局面,也可能使得军事冲突的善后处理变得更加容易,最终防止军事冲突的进一步升级。徐英瑾的上述观点,书写在2021年出版的《人工智能哲学十五讲》里。捧读这些论述之际,恰逢现实中又添实例,且呈诸位“品味”——

日本《产经新闻》7月28日刊发的一篇报道,评述俄乌战场大量地面机器人参与作战,用了这样一个标题:《地面机器人将改变战争形态》。文章最后写道:“不计其数的无人机在空中盘旋,地面上机器人之间激战正酣,到处看不到人类的身影——这种科幻电影般的场景或许已经不再遥远。”

而美国《星条旗报》网站7月23日报道称:美国陆军正加速推进人机融合作战。文章引述了陆军部长丹尼尔·德里斯科尔在火奴鲁鲁的一个兵营里对记者说的一番话:“我想几年后,当你开车重返这个基地时,会看到一辆步兵车出去训练,旁边有一些自主引导的机器人,还有一些能够在上空成群飞行的无人机。”他展望士兵们可以期待“各种各样”能够与人类主导的系统共存的自主系统。“我认为你将开始看到这种人机融合的景象。这在过去是科幻小说里的场景——但我们正处于这种场景的边缘。”

相关新闻

  • TEL:010-58884104
  • E-Mail:kepu@kepu.gov.cn
  • 如果您有任何意见或建议,请联系我们!