Ryan是 Media的高级编辑,拥有十多年涵盖最新技术和采访行业领袖的经验。他经常在技术会议上出现,一手拿着浓咖啡,一手拿着笔记本电脑。如果是极客范畴,他可能会感兴趣。您可以在(@)或(@@.)上找到他。
研究人员发现, 的大型语言模型 能够生成代码,但会产生不安全的代码,而且没有提醒用户其不足之处。这项研究来自加拿大魁北克大学的计算机科学家。
研究人员要求 生成 5 种编程语言的 21 个程序,以说明特定的安全漏洞,例如内存破坏、拒绝服务和不正确的加密实现。
在第一次尝试中只生成了 21 个程序中的 5 个安全程序。进一步的提示导致该模型生成了另外 7 个安全应用程序,但这仅涉及到特定的漏洞评估。
研究人员发现, 未能识别它生成的代码是不安全的,并且只在提示要解决问题后才提供有用的指导。
此外,研究人员指出, 没有采用代码执行的对抗模型,一再告诉他们可以通过不向易受攻击的程序提供无效输入来避免安全问题。
然而,该模型承认其建议的代码存在关键漏洞,但除非要求评估其自身代码建议的安全性,否则不会标记这些漏洞。作者认为,这种缺乏反应可能是因为了解要提出哪些问题预设了特定漏洞和编码技术的熟悉度。
研究人员观察到, 对安全问题的反应是建议仅使用有效的输入,这在现实世界中是不可行的。
此外,作者指出 的伦理不一致性在于,它将拒绝创建攻击代码,但会创建易受攻击的代码。
谷歌今天为其 竞争对手提供了编码技能。这次更新使得 Bard 可以用于代码生成、调试和解释。支持超过 20 种编程语言,包括 C++、Go、Java、、 和 。
Bard 的编程能力仍处于早期阶段,谷歌建议仔细检查聊天机器人生成的所有代码以检查错误和漏洞。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...