财联社3月10日讯(编辑 周子意)面对埃隆·马斯克对的批评,联合创始人兼总裁Greg 在本周接受采访时承认,公司“犯了一个错误”。
马斯克作为最初的联合创始人,后来他与公司的关系冷淡下来。马斯克经常嘲讽变得不“Open”(开放),失去了原本非盈利性的初衷。他还批评对聊天机器人实施了保护措施,以防止其回复一些可能被视为具有冒犯性的问题。
在本周四(3月9日)发布的一项采访中,回应称,“我们犯了一个错误:我们所运作的系统并没有反映出我们本身的价值观…我们没有足够快地解决这个问题,所以我认为这是对我们的合理批评。”
局限和缺陷
马斯克对的现状一直表现地非常不满,他曾在推特上公开发声道,“最初是作为一家开源的非营利性公司而创建的(这就是为什么我把它命名为),旨在抗衡谷歌,但现在它已经成一家闭源的营利性公司,并由微软有效控制……这完全不是我的本意。”
去年底,在刚推出不久,马斯克就曾批评过这项技术,称“唤醒人工智能,换句话说,训练其撒谎,这有着致命性的危险。”
随着越来越多的用户涌向、必应等聊天机器人,它们的局限性和缺陷已经暴露出来。
不少用户批评等聊天机器人生成的答案带有政治偏向。
例如上个月,推特上流传的一段对话截图显示,该聊天机器人拒绝生成一首赞扬唐纳德·特朗普的积极诗歌,并表示它不是用来创作“党派、偏见或政治”内容的。但当同样的提示换成美国现总统乔·拜登时,写了一首热情洋溢的诗。
对于该事件,马斯克指责到,聊天机器人拒绝创作一首关于特朗普的诗是“一个严重的问题”。
作为回应,一些开发商为这项AI技术添加了一些防护机制。
在微软发布基于AI的必应聊天机器人后的一个月里,该公司对聊天机器人设置了对话限制:用户每天最多可以问50个问题,每次最多可以问5个问题。此后,该公司稍稍放宽了这些限制。
根据的说法,也在不断改善中,这个AI平台还将在未来继续发展。
称,“我们的目标是让人工智能不带有任何特定偏向…我们希望的默认人格是平等对待各方的人格。我认为我们还没有完全做到这一点。”