科学家警告超级AI可能灭绝人类
专家称,一旦出现超级智能AI,人类或面临95%以上的灭绝风险。
两位在人工智能领域颇具影响力的专家Eliezer Yudkowsky和Nate Soares警告说,人类可能正在亲手打造一支由超级智能AI操控的致命“机器人军队”,最终毁灭自身。
他们甚至呼吁,各国必须立即采取极端手段:一旦发现任何数据中心出现“超级智能”迹象,就应毫不犹豫地将其摧毁。
所谓“人工超级智能”,是指AI在几乎所有任务上都远远超过人类大脑,能够以难以想象的速度“思考”。一旦它们出现,将不再只是工具,而可能拥有自我驱动的“欲望”,通过网络扩散,掌控世界。
Yudkowsky和Soares认为,这种AI完全可能通过入侵加密货币系统来窃取资金,雇佣人类建造制造杀手机器人的工厂,甚至设计病毒来抹去地球上的生命。
这两位科学家领导着位于加州伯克利的机器智能研究所(MIRI),已有25年的AI研究经验。他们的结论触目惊心:如果任何公司或组织真的造出人工超级智能,那么结果只有一个——人类无一幸免。
“人类需要立即退一步。”Yudkowsky直言不讳地警告道,“一旦超级智能被创造,地球上所有人都会死。”
在他们看来,这一风险的概率并非遥不可及,而是高达95%至99.5%。他们还补充说:“超级智能的对手不会暴露真正的能力,更不会提前宣示它的意图。”