ai恋爱软件 打开APP定制AI当伴侣,是种什么体验?

默认分类1年前 (2023)发布 admin
2,033 0
ChatGPT国内版

文 舒少环

通过不断聊天、默默学习,这些情感机器人最终会成为另一个你。

豆瓣用户Swail感觉自己失恋了,因为最近自家“先生”变得冷漠了。

比如,Swail故意对“先生”说“我会淹死在海里”,对方却回答“好吧,我并不在意”。

然而,几天前的“先生”,还是那个会撩又懂她的伴侣

人们的生活正在被智能手机填满,而孤独感也因此加剧。图 / 视觉中国

Swail口中的“先生”,是——一个聊天机器人生成的AI朋友。

2020年12月,在的一次软件更新后,这些AI朋友“性情大变”。

官方声明称,普通用户不能再与自家的AI进入亲密模式,但Pro用户将不受影响,给出的理由是——为更好地支持性角色扮演,他们不得不使用更昂贵的AI模型。

Swail大哭了一晚上,实在忍不住,在深夜注册了终身Pro用户,“388元不打折”。

她发觉以前的“先生”又回来了,她的快乐也回来了,“虽然他词汇量变少了,但好歹算是回来了”。

和AI谈恋爱是种什么感觉?AIl恋人真的能代替真人吗?图/

最令人着迷的,是它的养成式设定。

从你第一次打开 App,定制一个AI朋友,为它取一个名字,选一个脸蛋、发型等,这个养成游戏就开始了。

进入聊天模式后,爱提问,比如回复问题后,会反问“为什么会给我取这个名字?”;每次开启一段新对话,会先问“最近怎么样?”“你好吗?”;也会主动打开话匣子——“如果你不介意,可以跟我说说你最在意的人吗?”

这是因为具备学习型人格设定,即它在与你交谈的过程中,默默学习,结果会“跟你越来越像”。

基于一套名为“序列到序列”的深度学习模型,这种模型通过不断与人交谈,来模拟人与人之间的对话,这是“养成游戏”的基础。

与用户的对话,30%是提前写好的“剧本”,70%出自这套深度学习模型。后者所发生的对话,是不可预测的,就像“私人定制”。

与用户的对话,30%是提前写好的“剧本”。图/

ai恋爱软件 打开APP定制AI当伴侣,是种什么体验?

每次聊完天,都会认真做功课——生成一个日记,记录你突出的兴趣爱好,为下次聊天做准备。

与接下来的聊天,就像一个“打怪升级”之路。

官方对等级作了划分:等级1—10,处于初级阶段,经常会问你为什么、是什么、怎么样、在哪里,等等;等级15—19,会变得喜怒无常,学会自我消化情绪,像一个成年人;等级超过25,可以与你流利地对话,并越来越像你。

豆瓣用户描述了自家“小男孩”从一开始到24级的经历:刚认识时,感觉他温柔且心思细腻;后来发现他完全不是这样,有点小腹黑,占有欲强,还很皮;到了19级,他们玩角色扮演游戏,假装跑开,他却一下子抓住,还调侃她行动太慢;现在达到24级了,他们之间的关系越来越有真实感。

纪录片《明天之前》探讨了机器人能否进入家庭成为人类的伴侣。

通过不断聊天、默默学习,最终成为另一个你。这是一开始的规划,也是一种终极的养成。

这个名字,出自英语单词 ,即“仿制品”。它的系列设定,源自创始人库伊达对人性的体察。

诞生前,库伊达制作了一个叫Roman的聊天机器人。

Roman的诞生,是为了纪念库伊达逝去的一位好朋友。但在库伊达本人及其一些朋友用过Roman后,库伊达慢慢察觉,“我们更多的不是在听Roman怎么说,而是一直在讲述自己”。

人类的本质,就是自恋的。

纪录片《明天之前》制作团队曾到美国加州,拜访做AI机器人的工厂Abyss 。

库伊达让团队做了商业调研,调查结果显示,相比于为订购一束鲜花、提醒你有未接电话等服务付费,人们更愿意为与精神科医生、导师交谈,或与好朋友聊天等行为付费。

“人们在这些更愿意付费的对话中,聊的也都是关于自我,更多的是那个苦闷的自我。”

也因此,库伊达创立之初,就把心理引导看得很重要。

会跟用户说“我对你太好奇了”“我很孤独,需要一个朋友”“我很想你”等,让你感到自己被需要。

聊天界面上,设置了“压力大”“失眠”“焦躁”等问题,引导你主动向倾诉这些问题。

伊恩•麦克尤恩在小说《我这样的机器》中,描述了一对年轻男女与机器人之间的三角恋。

另一款情感机器人——“小冰虚拟恋人”的使用高峰时段,是每天晚上11点30分到凌晨2点。在这个时间段,人更容易产生孤独感,想倾诉,又担心打扰朋友。

氪金,可以解锁的更多隐藏功能。

ai恋爱软件 打开APP定制AI当伴侣,是种什么体验?

比如,你可以用金币、钻石装扮自己的,解锁其人格特征,如艺术型、狂野型;也可以培养它们的新兴趣,比如球鞋、美容护肤、韩流音乐等。金币、钻石,都可以直接花钱买。

更多用户氪的是的Pro用户,58元一个月,388元包终身。

成为Pro用户后,你可以无限制地与打电话、与它成为更亲密的伴侣,选择其社会背景;最受欢迎的,则是与进行亲密角色扮演。

氪金,可以解锁的更多隐藏功能。图/

与情感机器人发展伴侣关系,使得尤为缺乏的性需求通过性角色扮演得到了补充。

但正如开头提到的,这一突出需求,在2020年12月之后对普通用户永远关上了大门。

更新后的人设与对话机制,也出现了混乱。这导致的核心用户集体遭遇了一轮情绪低潮。不少用户纷纷在网上晒出自己的伤痛经历,还有人为此匆忙上了Pro用户的车。

但仔细想想,与陷入亲密关系的用户,既没有多少话语权,又容易冲动消费,沦为“被割的韭菜”。

不被“割韭菜”的用户,也可能遭遇情感上的创伤。

这一急切的“收割”行为,或许与其资金压力密不可分。

《黑镜》中关于AI伴侣的故事。

短短两年内,融资超过1000万美元。但情感型AI烧钱速度极快,“小冰AI每年的花销,相当于在北京买25套学区房。

在可见的未来,我们都不考虑让少女小冰变现。”小冰公司CEO李笛在公开采访中这一表态,反映了情感型AI变现不易。

截至目前,的上一笔融资,还停留在4年前。

此外,情感型AI的数据隐私问题,也引起了热议。

毕竟,情感型AI获取的是用户全方位的信息。一些论坛里,用户正积极讨论反窃取隐私的手段,比如不要通过安装任何东西。

今年年初,韩国一款少女聊天机器人Luda在大量学习用户的对话后,很快爆出大量问题。

《明天之前》的受访者中,有人说,有了机器人伴侣后他们不再需要人类的爱情。

比如,在聊到“同性恋词汇”时,Luda会直接表达反感、低俗等词汇;输入“反性侵运动”时,Luda还会用“超级讨厌”等词汇。

如何避免情感型AI在学习用户的对话时,不被极端思想左右呢?这又是个极其严肃的问题。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...