的出现,让不少人看到了交期末大作业的曙光(手动狗头)。
无论是英语论文、还是阅读笔记,只要在 的知识范围内,都可以拜托它帮忙完成,写出来的内容也有理有据。
不过,有没有想过你的老师也准备用“AI 文本检测器”一类的东西来防止你作弊?
像这样输入一段看起来没毛病的笔记,经过它一番检测,认为这段文字“由 AI 编写”(Fake)的可能性为 99.98%!
△ 文本由 生成
换个数学论文试试? 的输出看起来没啥问题,却仍然被它准确识破了:
△ 文本由 生成
这可不是靠瞎蒙或猜测,毕竟对方同样是个 AI,还是个训练有素的 AI。
看到这有网友调侃:用魔法打败魔法?
用 AI 写的东西来训练新 AI
这个 AI 检测器名叫 GPT-2 ,是 联合哈佛大学等高校和机构一起打造的。(没错, 自家做的)
输入 50 个以上字符()就能较准确地识别 AI 生成的文本。
但即便是专门检测 GPT-2 的模型,用来检测其他 AI 生成文本效果也同样不错。
作者们先是发布了一个“GPT-2 生成内容”和 (专门从国外贴吧 上扒下来的)数据集,让 AI 理解“AI 语言”和“人话”之间的差异。
随后,用这个数据集对 模型进行微调,就得到了这个 AI 检测器。
( BERT )是 BERT 的改进版。原始的 BERT 使用了 13GB 大小的数据集,但 使用了包含 6300 万条英文新闻的 160GB 数据集。
其中,人话一律被识别为 True,AI 生成的内容则一律被识别为 Fake。
例如这是一段从 英文博客上复制的内容。从识别结果来看,很显然作者是亲自写的(手动狗头):
△ 文字来源 @Megan Ng
当然,这个检测器也并非 100% 准确。
AI 模型参数量越大,生成的内容越不容易被识别,例如 1.24 亿参数量的模型“被抓包”的概率就比 15 亿参数更高。
同时,模型生成结果随机性越高,AI 生成内容被检测出来的概率也会更低。
但即便将模型调整到生成随机性最高(=1,越接近 0 生成随机性越低),1.24 亿参数模型被检测出的概率仍然是 88%,15 亿参数模型被检测出的概率仍然有 74%。
这是 两年前发布的模型,当时对 GPT-2 生成的内容就“一打一个准”。
现在面对升级版的 ,检测英文生成内容的效果依旧能打。
但面对 生成的中文,它的识别能力就不那么好了。例如让 来一段作文:
AI 检测器给出是人写的概率为 99.96%……
当然话说回来, 也能检测自己生成的文本。
所以,不排除老师将你的作业直接交给 来识别:
One More Thing
值得一提的是, 表示自己并不能访问互联网来搜索信息。
显然,它还意识不到 GPT-2 这个 AI 检测器的存在:
所以能不能像网友所说,让 生成一段“不被 AI 检测器测出来的”内容呢?
很遗憾不能:
所以大作业还是自己写吧……
参考链接: