新工具“毒药”保护艺术家作品:夜影在5天内下载超过25万次

快速导读:一种名为夜影的新工具由芝加哥大学的计算机科学研究人员开发,仅在五天内就被下载了超过25万次。该工具旨在保护艺术家的作品免受未经许可的人工智能(AI)模型使用。夜影通过对数字图像进行不可见的改变来利用AI模型的安全漏洞,导致模型发生故障并产生不可预测的响应。该工具旨在让艺术家对其知识产权拥有更多控制权,并迫使科技巨头为经过授权的作品付费。

对艺术家作品的威胁和夜影的必要性

生成式AI模型的可用性使创意人士感到担忧。像DALL-E、Midjourney和Stable Diffusion等工具对艺术家构成威胁,他们难以保护自己的作品免受未经许可的AI模型训练。退出请求和禁止抓取代码已被证明无效,因为以利润为驱动的AI公司可以轻易地忽视它们。一些艺术家诉诸法律行动,而其他人则依赖社交媒体曝光来获取委托。夜影通过利用AI模型的漏洞并使其对未经授权的训练变得不太有用,提供了一种解决方案。

夜影的工作原理及其潜在影响

夜影通过微妙地改变数字图像中的像素,进行对人眼不可见的更改。这种“特定提示的毒化攻击”会导致AI模型发生故障并错误地识别物体,从而降低其实用性。由于每个被毒害的图像都必须被单独识别并从训练集中删除,因此修复这个工具在规模上是困难的。夜影可能会与另一个名为Glaze的工具一起发布,后者可以防止AI模型学习艺术家的签名风格。其目的不是要打倒AI公司,而是让它们为经过授权的作品付费并尊重艺术家的许可。

艺术家对夜影的期望和对许可和补偿的追求

艺术家对夜影改变现状的潜力持乐观态度。他们相信它会让AI公司在未经许可的情况下使用他们的作品之前三思,因为它可能破坏他们的模型。这个工具被视为向艺术家返还权力并保护他们的知识产权的一种方式。夜影旨在给内容创作者一种反击未经授权训练的手段,并确保他们得到适当的补偿。通过迫使科技巨头为经过授权的作品付费,夜影旨在解决AI行业中的许可和补偿问题。