如果您认为 ChatGPT 很智能,请等到您听到 OpenAI 对“超级智能”AI 的设想。
做好准备:超级智能人工智能即将来临。

OpenAI 首席执行官 Sam Altman、OpenAI 总裁 Greg Brockman 和 OpenAI 首席科学家 Ilya Sutskever 共同撰写的一篇博文警告说,人工智能的发展需要严格监管,以防止潜在的灾难性情况 发生。
奥特曼表示:“现在是开始思考超级智能治理的好时机。”他承认未来的人工智能系统在能力方面可能会显着超越通用人工智能。“鉴于我们现在所看到的情况,可以想象,在未来十年内,人工智能系统将超过大多数领域的专家技能水平,并进行与当今最大的公司之一一样多的生产活动。”
与奥特曼最近在国会作证时提出的担忧相呼应,三人概述了他们认为对未来战略规划至关重要的三个支柱。
首先,OpenAI 认为控制和创新之间必须取得平衡,并推动达成一项社会协议,“让我们既能维护安全,又能帮助这些系统与社会顺利融合”。
接下来,他们倡导建立一个“国际权威机构”的想法,负责系统检查、审计执行、安全标准合规性测试以及部署和安全限制。他们与国际原子能机构进行了比较,提出了全球人工智能监管机构的样子。
最后,他们强调需要“技术能力”来维持对超级智能的控制并保证其“安全”。即使对于 OpenAI 来说,这意味着什么仍然是模糊的,但该帖子警告不要采取繁琐的监管措施,例如对低于超级智能门槛的技术进行许可证和审计。
从本质上讲,这个想法是让超级智能与其训练者的意图保持一致,防止出现“foom场景”——人工智能能力快速、无法控制的爆炸,超出了人类的控制范围。
OpenAI 还警告称,人工智能模型的不受控制的发展可能对未来社会产生潜在的灾难性影响。该领域的其他专家也已经提出了类似的担忧,从人工智能教父到Stability AI 等人工智能公司的创始人,甚至是过去参与 GPT LLM 培训的OpenAI 员工。这种对人工智能治理和监管采取积极主动的方法的紧急呼吁引起了世界各地监管机构的关注。
“安全”超级智能的挑战
OpenAI 相信,一旦解决了这些问题,人工智能的潜力就可以被更自由地发挥出来:“这项技术可以改善我们的社会,每个人使用这些新工具的创造力肯定会让我们感到惊讶,”他们说。
作者还解释说,该领域目前正在加速增长,这一点不会改变。该博客写道:“阻止它需要像全球监视制度这样的东西,但即使这样也不能保证有效。”
尽管面临这些挑战,OpenAI 的领导层仍然致力于探索这个问题:“我们如何确保实现保持超级智能安全的技术能力?” 世界现在还没有答案,但它确实需要一个答案,而 ChatGPT 无法提供这个答案。