
摇曳烛光
人类从未像今天这样站在技术革命的边缘。《最后的算法:为什么超级人工智能会终结人类时代》(以下简称《最后的算法》)一书指出,超级人工智能能以人类难以企及的速度思考、制定战略和自我改进,它的一个失误、一个被忽视的缺陷,都可能导致灾难性的后果。
近些年,人工智能工具创新迎来前所未有的繁荣,许多领先的人工智能公司计划在未来十年打造“超级人工智能”,即一种在所有认知任务的处理上都显著超越人类的智能体,引发人们的广泛关注。在这一背景下,2025年10月,美国未来生命研究所(FLI)发布了一封公开信,这封信被命名为《关于超级智能的声明》,内容非常简洁:呼吁“禁止超级人工智能的发展”,要求在其安全性上“达成广泛的科学认可”并在“得到公众的大力支持”之前,不应该取消这一禁令。同时声明中警示,打造“超级人工智能”很有可能造成经济衰退、国际安全风险、人类自主权利和自由意志的丧失,甚至导致人类灭绝。
其实早在2017年4月27日,在北京国家会议中心举行的“全球移动互联网大会”上,著名物理学家斯蒂芬·霍金通过视频发表的题为《让人工智能造福人类及其赖以生存的家园》的演讲中,就谈到了被人们视作“未来”的人工智能技术。霍金表示,人工智能的崛起要么是人类最好的事情,要么就是最糟糕的事情。他认为人工智能的威胁分短期和长期两种。短期威胁包括自动驾驶风险以及隐私问题;长期担忧主要是未来人类对人工智能系统的失控,例如,人工智能可以帮助优化产品生产,但忽视高效能造成的环境破坏,长此以往可能危及人类生命。
《最后的算法》这本书阐述了当人工智能超越人类智力时会发生什么,为什么创造超级人工智能可能威胁人类的生存。书中通过生动的案例研究和细致的技术见解,为读者探索人工智能的未来提供了一个清晰的线索。读者可以从书中了解传统安全措施,在人工智能“自我完善”机制面前的有限性,当下人工智能技术竞赛后果的不可控性,以及人工智能发展与人类价值观的相悖性。
这不是科幻小说,而是今天的现实,我们现在做出的选择将决定后代的命运。无论你是专业技术人员、政策制定者、研究人员,还是关心文明未来的人,《最后的算法》都将为你提供新的知识和视角,帮助你理解、预测和应对我们这个时代最重要的挑战之一。
这本书刚出版就引起了人工智能技术领域的广泛关注。该书的作者艾略特·R.斯特劳德是技术专家和教育家,他在软件开发和数字创新方面拥有十多年经验,他的作品让每个人都能接触到计算和编程的世界,缩小了复杂技术和日常理解之间的差距。
(作者系中国科学院大学教授、国际科学素养促进中心研究员)