最近,的人工智能聊天机器人在全世界爆火,2022年11月30日公开上线,5天用户量就突破了一百万。它除了能陪聊解闷,还能写代码、写论文、写诗和小说、画画、翻译、做数学题……只要你下指令,它就能完成,而且它对自己也有很清晰的认知。比如当你问它“有什么缺点”时,它给出的回答是:“对上下文理解有限、缺乏常识、训练数据有偏见,以及存在被滥用的可能性。”
,是人工智能公司基于大型语言模型GPT-3.5开发出来的聊天机器人。它操作简单,容易上手,你只需要在对话框里输入问题,就可以获得答案。它也会在聊的过程中更正之前犯过的错误,质疑不合逻辑的提问甚至干脆拒绝回答。
GPT的中文全称是“生成型预训练变换模型”。它是一个大量语言数据训练出来的概率模型,可以根据上文提示,预测下一个单词、下一句话应该是什么。在3.5模型版本之前,GPT-3一度是全球最大的自然语言模型,有1750亿个参数—要知道,2018年发布的GPT-1里,这个数字仅为1.17亿。
的出现,证明更大的模型的确效果更好。另外一个成功的因素是GPT-3.5吸收了大量来自网络的内容,包括成千上万的维基百科词条、社交媒体帖子和新闻报道。它通过这些内容来学习单词、句子以及单词之间的关系,这让它比之前所有的聊天机器人都更连贯、更富有逻辑和创意。读者可以发挥自己的想象力,让完成很多奇思妙想的任务,比如用鲁迅的口吻写报告、用金庸的笔法写情书等。
很快人们发现了的意外用途:只要简单输入几个关键词,AI就可以立刻输出一篇文章,不想写作业的学生、不愿写总结的员工都欣喜若狂。但另一方面,如何辨别文本是由真人所写、还是生成的,变得十分困难。尽管很多美国大学已经禁止学生使用来生成作业,纽约甚至禁止学校电脑访问网站,但仍然无法彻底阻止作弊行为。
“只有魔法能够打败魔法”,只有程序才能识别另一个程序。发布不到两个月,文本检测程序横空出世。它可以快捷、有效地检测出的作品,识别误报率不到2%。其作者爱德华·田,是普林斯顿大学四年级学生,正在攻读计算机科学与新闻学双专业—也许这就是来自学霸的“反击”吧!
也不是完美无缺的,随着使用的深入,人们很快发现它也会一本正经地胡说八道。
比如当被问道“红楼梦中贾宝玉适合娶谁”时,非常肯定地说“贾母”;有人要求它背诵《观沧海》,它干脆自己编了一首古诗。就国外网友的集体投票结果来看,的错误率在2%-5%左右。
对一个有趣的聊天机器人来说,这个表现无伤大雅,但如果真要应用到严肃的商业场景,例如合同、公文的写作,无疑还需要进一步提高其结果的稳定性。
对此,开发者在对的训练中加入了新的训练方式—RLHF(来自人类反馈的强化学习)。简单说就是,由人类训练师来对AI的答案进行人工排名和评级,并重新反馈到系统里,供模型进行下一步的训练,使其输出的内容能够更完整,也更具有逻辑。
有消息称GPT-4将会有大约100万亿个参数,性能较现在的版本又将是一次飞跃。看到这里,一定又有人开始担忧人类的未来了。如何不被AI取代?一起看看AI给出的建议吧!(以下文字由自动生成)
“想要不被AI取代,首先要学会持续学习和提升自己的技能。随着科技的发展,新技术和新应用日新月异,人类的知识和技能也必须不断更新和提升。
其次,要开发自己独特的人类技能,并将其与AI相结合。人类有许多独特的技能,如创造力、情感理解、人际交往等,这些技能是AI无法模仿的。
最后,要注重个人品质和职业道德。人类与AI的本质区别在于,人类有自己的思想和感情,有自己的价值观和道德标准。这包括拥有责任心、诚信和尊重他人等基本品质,以及遵守规则、尊重原则和尽职尽责等职业道德。只有通过这些方面的努力,才能让人类在竞争中保持优势,不被AI取代。”