人工超级智能 (ASI)

2025年4月2日 | 阅读4分钟

人工超级智能(ASI)是人工智能的一种假想形态;也就是说,尽管我们尚未成功实现它,但我们已经意识到如果成功所带来的后果。基本上,ASI 是被想象出来的人工智能,它不仅能翻译或理解人类的行为和智力,而且是计算机在智力和行为方面超越人类能力的那个点。

超级智能使机器人能够构思人类无法想象的抽象概念和解释。这是因为人脑的思维能力仅限于约十亿个神经元。

Artificial Super Intelligence (ASI)

在相当长的一段时间里,反乌托邦科幻小说中,机器征服、奴役或奴役人类的情节一直围绕着超级智能。除了模仿人类复杂的行为智能之外,人工超级智能的概念化不仅是从理解和解释人类情感和经验的角度出发,而且还基于其理解功能,唤起自身的情感理解、信仰和欲望。

在数学、物理学、艺术、体育、医学、市场营销、爱好和人际关系等所有研究领域,ASI 都将比人类极其优越。ASI 将能够更快地处理和分析情况、数据和刺激行为,并且拥有更大的记忆力。这意味着,与人类的决策和解决问题的能力相比,超级智能实体和/或机器人将拥有显著更强大和准确的能力。

尽管拥有如此强大的设备唾手可得的想法听起来很诱人,但仍有许多未解之谜。它对我们、我们的生存甚至我们的存在会产生什么影响,这些都只是神话或猜测。

Artificial Super Intelligence (ASI)

科学家和工程师仍在努力实现完全人工智能的目标,这将使计算机能够像人类一样思考和行动。即使有像 Siri 和 IBM 的 Watson 超级计算机这样一些意想不到的进步,计算机仍然无法完全复制和达到一个普通成年人轻易就能完成的认知技能的广度和多样性。然而,有几个想法表明,尽管取得了成就,人工超级智能将比预期的更早出现。专家预测,鉴于当前的进步速度,人工超级智能可能在 21 世纪出现,而完全人工智能可能在几年内出现。

Nick Bostrom 在他的著作《超级智能》中用“麻雀未完成的寓言”解释了首字母缩写。基本上,这个想法是一些麻雀想养一只猫头鹰作为宠物。除了一个持怀疑态度的麻雀质疑他们能否控制猫头鹰之外,所有人都认为这个计划很棒。以一种“有问题我们到时候再解决”的方式,这个担忧暂时被搁置了。埃隆·马斯克认为,人类就是 Bostrom 隐喻中的猫头鹰,而未来的 ASI 是麻雀,对超级智能生物怀有类似的恐惧。与麻雀的情况类似,“控制问题”令人担忧,因为如果出现问题,我们可能只有一次机会来解决它。

制造人工超级智能有风险吗?

风险在于不惜一切代价完成任务的意愿。超级智能 AI 将不知疲倦地工作以完成任何手头的任务,但我们仍然需要确保任务的完成方式符合所有规定,以保持一定的控制力。

根据科学家们的说法,以下风险与 ASI 的发展有关:

  • 不可预测性和失控: ASI 系统可能会以人类无法预测或难以理解的方式运行和行动,因为它将拥有超出我们自身的能力。此外,系统可能会自行进化和适应,这意味着它们可能会以人类无法想象或控制的方式改变技术。由于其更高的认知能力,ASI 可能会将人类置于灭绝的危险之中,例如,如果一个系统控制了核武器并消灭了地球上所有生物。
  • 失业: ASI 将自动化许多人类职业,这将导致普遍的人类失业以及政治和经济动荡。
  • 武装冲突: ASI 的能力有可能极大地增强武装冲突的破坏力。AI 驱动的编程、政治权力和网络安全可能会以对人类有害的方式发展。此外,邪恶的政府、企业和其他团体可能会滥用技术来谋取对人类不利的目的,例如收集大量个人数据,或使用有偏见的算法来维持偏见和歧视。
  • 道德操守: 鉴于人类从未就一套统一的道德或伦理原则达成一致,可能很难为 ASI 系统编程道德和伦理。人类可能会受到一个设计不当的 ASI 系统在政治或医疗方面做出判断的影响。伦理上也提出了一个非人类 AI 系统是否应该拥有对人类的决策权的问题。