博主晒出的正常照片,却被“有心人”用AI软件“一键脱衣”,并导致相关图片被广泛传播,这样的行为无疑恶劣至极。以至于一些网友都忍不住向被侵权的博主喊话:赶紧报警。事实上,随着AI技术应用的推广,近年来诸如“一键脱衣”“AI换脸”等侵权行为并非第一次出现,甚至已有明星“中招”。2021年8月,就有演员发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。
可以想象,这些被曝光的案例可能只是一些人借AI技术作恶的冰山一角。技术本身是中性的,被拿来干侵权违法的事,就是一种危险的走偏,它会将所有人都置于危险境地。这次不少网友呼吁科技不该用在这上面,实际已经反映出了一种比较现实的担心。因此,对这个问题的处理绝不应该只满足于鼓励受害者维权,在社会治理角度,也应该给予更全方位的回应。
据了解,早在2019年,国外程序员就开发出了一款AI技术“脱衣”的应用。后因广泛的舆论争议,开发团队选择将该项目关闭。但现实表明,这并不代表真正终结了该技术的应用。时至今日,在网站搜索“AI去衣软件”,仍会出现“替代品”。显然,这样一个可以随时被用于侵权作恶的应用软件,能如此轻易地被获取,无异于是对相关侵权行为的直接纵容。它们到底是否应该继续存在,相关平台是否应该加以限制乃至予以彻底屏蔽,监管部门和平台是时候作出更明确的决断了。
其实,从为AI技术营造健康的发展环境的角度,也应该对借AI技术作恶的跑偏行为进行更具针对性的预防和规制。要知道,若AI“一键脱衣”这样的违法操作能够轻而易举做到,不仅对所有人的权益保障构成了一种风险隐患,也不可避免地影响到社会对AI技术本身的认同,继而很可能误伤一些正常的AI应用。对此,不仅监管部门要强化对相关违法行为的打击力度,整个AI行业也应该主动趋利避害,对那些违背科技伦理底线的行为坚决说不,在技术规制和伦理规则等方面都构建起更牢固的篱笆,防止打开“潘多拉魔盒”。
此外,借AI“换脸”“脱衣”等违法操作的频频发生,也在提醒AI时代的每个人,应该进一步提高辨假的意识和识假的能力。比如,“有图有真相”的说法就不应该再被奉为“真理”。尤其是当一些涉及个人权益风险的图片和视频出现后,理应提高警惕并谨慎传播,避免给违法行为推波助澜。
当然,仅就AI“一键脱衣”这类操作而言,对它的治理其实可以纳入打击网络谣言的行动中去。类似前段时间被曝光过的多起造黄谣事件,利用AI“一键脱衣”在本质上其实就是对受害者的“造黄谣”,只不过借助了一种智能化手段。它的出现,实际给网络谣言的治理提出了新的、更高的要求。比如,受害者如何维权,相关证据如何确定等等,都还需要在法律机制上给出更明确的回应。