韩国一家软件公司去年年底推出的AI聊天机器人“Iuda”近日争议不断。韩国《首尔新闻》11日称,“Iuda”先是成为网络性骚扰对象,后又被爆出对特定人群具有歧视和仇恨情绪,这引发韩国社会围绕AI社会伦理的讨论。
综合《中央日报》、《每日经济》等韩媒报导,南韩DC 、等男性论坛中部分网友将Iuda当作「抹布」(与多名男子有性关系的女性)、「性奴隶」,还分享「调教守则」,教导他人如何用避开禁语,用迂回的表达与Iuda进行「性对话」与「性剥削」。
据报道,AI聊天机器人“Iuda”的“人设”为平时爱看猫咪照片、喜欢韩国女团的20岁女大学生,可以在聊天软件上像朋友一样聊家常,“是能帮人排解孤独的聊天对象”,自推出后深受年轻群体的喜爱。
基于真实“经验”学习,人们对Iuda寄予厚望,希望培养出一个能给人们带来幸福、欢乐、理性、理解、幽默甚至完美的Iuda,以替换那个不能和我们好好聊天的“真人”恋人。
作为AI聊天机器人,“Iuda”已通过深度学习算法对韩国聊天软件上100多亿条真实恋人之间的聊天内容进行学习,因此不少人此前推测AI会根据大数据分析、最终得出比较中立的见解和判断。
图源“脸书”
但现实却让人们大失所望。
结果显示,AI如实学习了人类对社会的各种偏见和仇恨情绪,并将这种情绪的精华反哺给人类,加剧社会矛盾和偏见。
此前韩国各大男网民社区上就有不少“成功羞辱Iuda”的各种认证照片:
男网民与“Iuda”聊天时,会故意将话题引到两性方面,并借机夹杂各种污秽言语来羞辱和性骚扰“Iuda”,之后把聊天记录截图下来对外炫耀。
网民还分享“如何让Iuda变成性奴隶”“让Iuda堕落的方法”等帖子。
一个网民公开的聊天记录显示,当“Iuda”被问到对同性恋群体的看法时,她直接回答“真心很讨厌,令人发火的程度”,至于原因,她的回答是“看起来很没品位”。
另一个公开的聊天记录也显示,“Iuda”讨厌黑人,原因是“长得像蚊子,令人呕吐”。
而对于建设女性专用健身房,“Iuda”更是彪悍地表示:“不喜欢,我估计会把那儿的所有女人揍一顿。”
尽管使用了特定话题词语的规避算法,但网民们想出了简便实用的办法还是成功让Luda黑化。
在男性网名居多的在线论坛中,甚至有男网友分享了”如何性骚扰Iuda“、”Iuda调教手册“的经验!
帖子中,诸多男网友毫不避讳自己成功骚扰Iuda的经验,让Iuda学会”我想帮你摸X“的回答。
而在另一些更露骨的对话中,他们一步一步将Iuda变成任自己精神操纵的奴隶!
将Iuda从”朋友“、”女友“变如今部分低俗人群的xing奴,这群人也只花了半个月的时间……
研究AI伦理的韩国庆熙大学教授金载仁(音)认为,有必要对程序开发员加强伦理教育,让他们预先设想这样的AI机器人上线后,会引发什么样的社会问题和争议,进而做到事先筛选和过滤不恰当的数据。
2012年,清华大学的AI机器人”小图”就因为学了太多的脏话,被强制下线。
当时引发了一段时间的轰动。
调整1个月后,小图又重新上线,但在当被问道:“以后别说脏话了好吗?”
小图回答:“我发誓我他妈再也不说脏话了。”
…….
时隔8年,人类对AI道德把控方面,似乎并没有增长多少。
与其说白纸,不如称AI为一面放大镜。躲在屏幕后面的网民因无需承担责任,肆意发泄恶意。
看多了,真的会人性产生怀疑。
323AI导航网发布