ai对齐工具无法对齐 当AI变成“守法公民”,为何用户反而不爱它了

默认分类12个月前发布 admin
540 0
ChatGPT国内版

、这两个名字无疑是2023年科技圈最为炙手可热的存在,但投入AI大模型赛道的显然远远不止一家,例如谷歌有、Meta有开源的Llama 2、亚马逊也有Titan。并且这个赛道目前来看也并非巨头们的狂欢,比如创业公司旗下的,就被认为是一款比肩GPT-4的大语言模型。

只不过作为AI赛道的独角兽,最近陷入了麻烦,该公司刚刚发布不久的 2.1受到了用户的广泛批评。

诸如“我对 2.1感到非常失望”、“已经死了”,这是上用户们的吐槽。而大家之所以会对不满,在于 2.1现在经常会拒绝为用户服务,并以版权为由不给为用户提供的文档进行总结,面对用户可能涉及的不道德或违法行为会给予直截了当的拒绝,最让用户不爽的则是输入的往往会被 2.1认为是违规。

如此种种,让相当多用户认为为了让 2.1合规、而主动降低了后者的性能,甚至限制使用。其实这背后就涉及到了一个如今在AI赛道有着巨大影响力的概念“对齐”(),即要求AI能够在各种环境下自发推导出符合人类价值观的行动方针,并不会产生意外的有害后果。

ai对齐工具无法对齐 当AI变成“守法公民”,为何用户反而不爱它了

然而强行让AI遵守人类价值观是有代价的,此前由微软研究院发布的一篇论文证实了对AI大模型所进行的任何AI对齐行为,都会损失大模型的准确性和性能。因此目前AI领域围绕商业化激进发展与安全保守之间的博弈,就产生了“有效加速主义”和“超级对齐”这两个对立的阵营,双方对抗的高潮就是去年秋季发生在内部的“政变”,首席科学家Ilya 驱逐了该公司CEO Sam 。

尽管最终Sam 回归,但业界的主流思潮已经变成了AI需要被监管、需要有风险控制措施。故而对齐成为了目前一众AI大模型必备的环节,但相比于友商,在“对齐”这一环节的表现尤为激进。在发布 2.1之前,该公司起草了一份AI宪法( AI),强调AI回答时要保持客观、平衡、易于理解,且AI必须是无害的。

其实的保守也是有原因的,虽然确实有类似 Plus这样面向个人用户的Pro版本,但其主要是面向企业级市场,而对于后者来说,相比于在性能上表现更加出色,合规反而是更加重要的一件事情。所以为了让AI更符合监管的要求而限制性能,这是一个让个人用户不满,却符合企业用户需求的决策。

值得一提的是, 2.1表现出性能下降的趋势,其实并不完全是因为在“AI对齐”上更加激进, 2.1本身的迭代也有问题。作为去年11月中旬推出的新模型, 2.1最大的卖点是200k的上下文窗口,这一卖点契合了当时一众AI大模型互相比拼上下文窗口容量的风潮。

例如在去年10月末,百川智能推出的-192K把上下文窗口增大到192k,就一度成为当时全球上下文窗口最大的模型。

ai对齐工具无法对齐 当AI变成“守法公民”,为何用户反而不爱它了

紧接着李开复带领的零一万物团队发布开源大模型Yi系列,其将上下文窗口的规模增加到了200k,旋即无问芯穹的大模型计算引擎“-ACC”,更是将这一数字扩展到256k。

但问题在于,当用户输入的内容变多了之后,“算力需求”和“显存压力”的增加会直接导致大模型性能的下降。即便开发者通过优化算法来实现窗口长度和性能之间的平衡,但在上下文窗口超过100k之后,大模型的性能也会直线下降。

其实这一点在百川智能的-192和的 2.1上都有明显的体现,有海外在测试中发现,.1的表现甚至还不如2.0版本。这一方面是AI对齐不可避免地带来了性能下降,毕竟一个束手束脚的AI难以发挥潜力;另一方面则是盲目扩大 2.1的上下文能力,使得在双重负面因素的影响之下,如果用户没有感受到变得越来越不好用反而是有问题的。

只能说如今用户的群情汹汹是激进决策的“代价”,但这个代价究竟有没有必要,可能就只有自己清楚了。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...