是迄今为止最受欢迎的人工智能聊天机器人。对很多人来说,人工智能和 几乎成了同义词。如果你没有注意, 会使用你的私人聊天记录来改进它的模型,也就是训练它的人工智能模型。事实上, 会告知用户不要分享敏感信息,因为你的聊天记录会被用来训练模型,但这只限于新用户第一次加入 时。
不仅如此, 还使用来自 “值得信赖的服务提供商” 的人工审核员来处理您的去标识化私人聊天记录,但却没有在 的主页上提及这一点。谷歌也在 聊天记录中使用人工审核员来训练和改进其模型,但谷歌在主页上明确告知了用户。
虽然 在 的设置页面中提供了一个数据控制选项,可以禁止对所有聊天记录进行模型训练,但这一设置同时也关闭了聊天记录。选择退出训练就无法访问过去的对话,这种功能给人一种惩罚的感觉,不利于用户优先考虑隐私。
访问过去的聊天记录是一项基本功能,无论如何都不应与隐私挂钩。两者是可以共存的。事实上,这种情况确实存在。
有一个隐私门户页面,在这里你可以选择退出模型训练,并保留完整的聊天记录。这家炙手可热的人工智能初创公司并没有在 界面的任何地方宣传这个页面。您必须打开 “数据控制 FAQ” 页面,其中提到您完全可以禁用模型训练,并保留完整的聊天记录。
如果我想保留历史记录但禁用模型训练怎么办?我们不会使用 Team、 和 API 平台等业务产品中的内容来训练我们的模型。有关我们如何处理业务数据的信息,请参阅我们的企业隐私页面。如果您使用的是个人工作空间上的 Plus 或 免费计划,您可以通过我们的隐私门户点击 “do not train on my (不要利用我的内容进行训练)” 来退出训练。您也可以在 “设置” 中关闭 “聊天记录和训练”,从而关闭 会话的训练。一旦选择关闭,新对话将不会用于训练我们的模型。
因此,我继续深入研究,并启动了 的隐私门户页面,在那里我提出了停止对我的内容进行训练的请求。如果你已经登录了 账户,它会自动登录。否则,您需要输入与您的 账户关联的电子邮件地址, 会向您发送一封电子邮件。点击电子邮件中的链接并提交申请。免费用户和 Plus 用户都可以提交此申请。流程如下:
当然,该请求将应用于所有未来的聊天,而不是您过去的对话。将创建一个活动请求。一两分钟后重新载入页面,您的请求就会得到处理,至少对我来说是这样。您还会收到一封电子邮件,内容如下:
“We your to not train on to our . We will no use your to train our . As a , this is and does not apply to that had been from your .(我们成功处理了您的请求,不再对提供给我们消费者服务的内容进行训练。我们将不再使用您的内容来训练我们的模型。需要提醒的是,此请求是前瞻性的,不适用于之前从您的账户中删除的内容。)”
现在,您可以在打开聊天历史记录(包括聊天共享)的情况下使用 ,同时不参加模型训练。谢谢。如果 能够在数据控制设置页面内添加隐私门户页面的链接,以便用户能够对自己的隐私做出明智的决定,我会非常感激。
这种黑暗的模式让人怀疑 对透明度的承诺,尤其是在处理用户聊天记录时。如果该公司在透明度方面言行一致,那将是一个好兆头,否则就会削弱用户的信任。
323AI导航网发布