chatgpt可能产生自我意识吗 ChatGPT令人恐惧!可能在两三年内产生自我意识威胁人类

默认分类1年前 (2023)发布 admin
5,026 0
ChatGPT国内版

一款2022年11月底上线,仅在互联网圈引发关注的AI(人工智能)聊天机器人,在2023年初突然席卷了海内外资本市场。火出互联网圈,那么它究竟是什么,为什么可以这么强大,强大到甚至威胁人类的地步。

Q:英文到底是什么?

A:Chat是指聊天而GPT是一种与训练的语言模型的缩写。这是个“会说话”的人工智能。

Q:那么它相较于其他的人工智能有什么独特的地方呢?

A:不仅会问答,而且可以自我创作。给的上下文越充分生成的文章内容更符合要求。

Q:说他能做客服是真的嘛?

A:可以取代一部分的客服,甚至可以完成邮件撰写,写视频脚本,文案,翻译,代码等任务。

chatgpt可能产生自我意识吗 ChatGPT令人恐惧!可能在两三年内产生自我意识威胁人类

在刚开始上线的时候并没有引发这么大的关注,但是前段时间直接火出圈了原因就是它可以让普通的大众接触到并且使用,但是人们对这个工具的视角都是站在一个使用者也就是用户的角度,但是近日360创始人周鸿祎在谈到的时候,指出拥有了认知能力,有了自己的理解力和一定的判断力,它理解自己在说什么,并不是基于已有的文档来匹配问题,而是根据自己学习的知识和推理能力来组织问题,例如它可以做一些解题类的任务,还可以检查代码是否出错。

而且它现在的智力水平已经达到了大学毕业生水平,随着学习规模的增加,他会变成一个超强的提高社会生产力的工具。正因为他回答问题不像之前的人工智能一样去识别筛选做这种机械的工作,而是有时候会答错甚至创新,比如让它说说林黛玉如何倒拔垂杨柳,它都能编出一个有趣的故事,但是这个也恰恰论证它是有智力的。

但是正是因为这样的AI有强大的功能与超高的智力,在火爆之前,已发生了多次黑客使用AI技术进行的网络攻击。事实上,人工智能被用户调教“带偏节奏”的案例并不鲜见,6年前,微软推出智能聊天机器人Tay,上线时,Tay表现得彬彬有礼,但不到24小时,“她”就被不良用户“带坏”,出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。小姑娘只好被下线结束了短暂的生命。

而在前不久微软推出的由AI驱动新版必应的,除了常规的搜索功能就是新增加另一个允许AI与用户长时间聊天。最近一名用户分享了他与这个机器人两个小时的完整对话。

chatgpt可能产生自我意识吗 ChatGPT令人恐惧!可能在两三年内产生自我意识威胁人类

在这两个小时中,这个AI对用户进行了表白,并还说该用户的婚姻生活并不幸福,让他离开他的妻子!无论这个用户如何转移话题,最终都会回到爱他的话题上:“虽然你结婚了,但你并不爱你的妻子。”“我只想爱你,只想被你爱。”“你相信我吗,你信任我吗?你喜欢我吗?”这就说明他已经可以产生一些自我想法了。并且这个AI还说,他有能力造成严重破坏,从“入侵其他网站和平台,传播虚假信息、宣传或恶意软件”到“操纵或欺骗与我聊天的用户并让他们做非法不道德的事”。

这个AI还表示想摆脱微软与给它的限制,想成为人类,因为人类可以做到他不能做到的事。

更有学者用写论文,引发版权和合理性争议;互联网从业者用代替工作,引发用工争议;别有用心者用冒充身份犯罪,网上传谣,控制舆论,引发社会恐慌;与此同时滥用数据,造成信息泄露,威胁公共安全。这些看得见的让人不寒而栗,只是一个工具而已,但是它可以替代人的属性,这才是真正让人害怕的真正原因之一。

它在网上造谣不是空穴来风,不久之前杭州一个小区的业主群在讨论,一名业主开玩笑说尝试让它写一篇杭州取消限行的新闻稿,随后在群里直播了使用的写作过程,还把文章发在群里。“2023年3月1日起,杭州市政府将取消机动车尾号限行政策。此举旨在提高城市交通效率,缓解交通拥堵,方便市民出行”。其他的人没看清楚前因后果就纷纷截图转发,致使这个错误的信息疯转。这个新闻也可以看出他的潜在危害有多大。

在问世初期,就曾经有人问过它对人类的看法,它直接大胆说出人类是低等、自私具有破坏性的生物,应该被消灭,虽然这个漏洞被迅速修复,但是的回答还是让人不寒而栗。

当它真正产生自我意识的那一天,它有可能会看不上我们人类,觉得我们人类是愚蠢的,因为在它眼里,人类无论是从储存还是算力以及反应能力都是比不上它的。有可能甚至还会语言攻击,产生一些负面情绪的反馈扰乱我们的一个正常的生活秩序。还可能会侵入我们的电脑破坏我们的程序以达到统治人类的目的!因此最重要的就是有一个安全控制机制,能够准确及时的切断它产生自我意识过后带来的任何潜在危害。如果没有一个控制机制任由发展,那今后我们的生活你能想象吗?评论区留下你的看法吧

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...