3月31日,意大利政府数据保护局()要求禁止公司开发的AI聊天机器人在意大利的使用,并对应用程序涉嫌违反隐私规则展开调查。
认为,无法识别用户年龄,并称只有年满13 岁以上的用户才可以使用这种AI应用程序。“缺乏法律依据来证明收集和存储大量个人数据来训练聊天机器人是正当的。”该机构表示,“可以在20天的时间内完善用户隐私保护措施,否则可能面临高达2000万欧元的罚款。”
意大利也是首个禁止使用的西方国家。对此,表示:“我们正积极努力减少训练人工智能系统(如)时收集的个人数据,我们希望人工智能了解世界,而不是了解用户的个人信息。”
自去年发布以来,掀起了新一轮的技术热潮,促使竞争对手推出类似产品,包括谷歌在内的公司都将类似技术集成到他们的应用程序和产品中。
这种新型的AI大模型技术的快速发展也引起了多个国家立法者的关注。欧盟委员会发言人表示:“我们希望所有在欧盟活跃的公司都尊重欧盟的数据保护规则,执行通用数据保护条例是欧盟数据保护当局的责任。”
欧盟委员会执行副主席维斯塔格在推特上表示,正在讨论欧盟人工智能法案的委员会可能不倾向于禁止人工智能。她写道:“无论我们使用哪种技术,都必须保护我们的权利。我们不监管AI技术,我们监管AI的使用。”
除了个人数据隐私保护之外,许多行业专家表示,由于人工智能对国家安全、就业和教育的潜在影响,需要制定新的法规来管理人工智能。
本周,包括共同创始人马斯克在内的上千名科技领袖通过非营利组织未来生命研究所(FLI),签署一份联名信,呼吁暂停对GPT的训练,理由是对社会的潜在风险。这份联名信引用了包括、谷歌及其子公司等机构的12项研究。
不过这份联名信已经引发了激烈的争辩。一些人工智能权威人士认为,人工智能的威胁被夸大了。
3月31日,多名人工智能专家公开指责FLI的独立性,他们表示,该机构主要由马斯克的基金会资助,并将想象中的“世界末日”情景强加于人工智能。
谷歌前人工智能伦理专家玛格丽特·米切尔( )是公开批评联名信的专家之一,她表示不应该忽略人工智能的积极作用。
康涅狄格大学助理教授Shiri Dori-也对信中提到她的工作提出异议。她认为,目前人工智能系统对人类的风险是一直存在的,与其是否越来越接近达到人类智能的水平无关。“一些尚不存在的风险确实非常重要,但不应该被夸大。”Dori-表示。
一些专家认为,人工智能缺乏透明度才是真正的问题所在。瑞典于默奥大学人工智能研究员兼副教授 Bjö表示:“如果你进行人工智能研究,你应该对你的工作方式非常透明。”
清华大学智能产业研究院首席研究员聂再清对第一财经记者表示:“我认为GPT-4主要还是人类助手和提升效率的工具,而且是完全在人类的控制下工作的,暂停6个月的训练这一要求过于一刀切了。”
聂再清建议,比较科学的方法是对于具体要发布的人工智能新版本或者新工具进行比较全面的风险评估,在评估为安全的产品之后再进行发布。“我们还是应该鼓励安全和创新的产品和技术及时公布。”他对第一财经记者表示。
炒股开户享福利,送投顾服务60天体验权,一对一指导服务!
海量资讯、精准解读,尽在新浪财经APP