OpenAI计划投入更多资源并成立新的研究团队,以确保AI对人类的安全性。这是因为超级智能的巨大能力可能导致人类失去力量甚至灭绝。OpenAI联合创始人伊利亚·苏茨凯弗和AI对齐负责人简·莱克在官方博客中表示,超智能AI可能会在未来10年中出现,因此需要比目前更强大的技术来控制超智能AI,确保人AI对人类持续有益。
OpenAI将在未来4年内,将算力的20%专门用于解决这方面问题。此外,该公司将组建新的“超对齐”团队来组织这方面的工作。该团队的目标是开发达到“人类水平”,由AI驱动的对齐研究员,随后通过庞大的算力推动其发展。OpenAI表示,这意味着将使用人工反馈来训练AI系统,通过训练AI系统来协助人工评估,最终训练AI系统来进行实际的对齐研究。
然而,人工智能安全的倡导者康纳·莱希表示,OpenAI的计划存在根本性缺陷,因为最初的人类水平AI可能会失控并造成严重破坏,而这将迫使研究者去解决AI安全问题。他认为,在构建人类水平的智能之前,必须先解决对齐问题,否则默认情况下你无法控制它。因此,OpenAI需要更加谨慎地考虑这个问题。
AI的潜在危险一直是AI研究员和公众最关心的问题。今年4月,一群AI行业领袖和专家签署公开信,呼吁暂停6个月开发比OpenAI的GPT-4更强大的系统,原因是对社会存在潜在风险。益普索今年5月的调查发现,超过2/3的美国人担心AI可能产生的负面影响,61%的人认为AI可能威胁人类文明。
因此,OpenAI的计划是非常必要的。AI对齐是AI控制中的主要问题,即要求AI的目标和人类的价值观与意图保持一致。OpenAI需要更加谨慎地考虑这个问题,确保AI对人类的安全性。只有这样,AI才能真正成为人类的助手,而不是威胁。
323AI导航网
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...