AI图像生成器与版权侵权:艺术家通过数据污染反击

快速导读:像Midjourney或DALL-E这样的AI图像生成器被指控未经许可使用艺术家的作品侵犯版权。作为回应,艺术家们正在探索一种名为数据污染的新策略。通过操纵生成图像所使用的数据,艺术家可以欺骗AI模型产生意想不到且不相关的图像。这种方法由芝加哥大学开发的Nightshade工具演示,旨在通过使盗版图像无法使用来阻止其使用。艺术家对Nightshade的普遍使用表明,它可能比诉讼更有效的解决方案。

数据污染:艺术家如何破坏AI

澳大利亚数字媒体教授T. J. Thomson和Daniel Angus解释了艺术家如何进行数据污染来对抗AI图像生成器。他们描述了这样一种情景:一个艺术家需要一张红色气球在蓝天下的图片,但生成器却产生了一张鸡蛋或西瓜的图片。数据污染涉及微妙地改变图像中的像素,以欺骗AI模型,使其生成与预期完全不同的图像。芝加哥大学开发的Nightshade工具允许艺术家操纵AI模型使用的数据,使生成的图像对盗版者无用。

Nightshade的工作原理:破坏AI图像生成

Nightshade针对文本提示和图像之间的关联,以对人类来说不可察觉但对AI模型产生影响的方式改变像素。通过引入“污染”的数据,模型会错误地对图像的特征进行分类,导致它们生成不相关的图像。即使只有少量的“污染”样本,也足以破坏提示。例如,一幅描绘牛的画可以被扭曲成使模型生成一辆大型福特卡车的图像。艺术家对Nightshade的热烈反响表明它作为一种工具在对抗AI图像生成器和保护艺术家作品方面具有潜力。

Nightshade:艺术家的一个有希望的解决方案

芝加哥大学开发的免费工具Nightshade在艺术家中获得了显著的流行。它能够操纵AI模型使用的数据,为艺术家提供了一种新的保护作品免受版权侵权的方式。艺术家现在可以通过引入“污染”的数据积极破坏AI图像生成器,而不仅仅依赖诉讼。对Nightshade的热烈反应表明,它可能是艺术家在AI生成内容时对抗数字盗版的更有效策略。数据污染的使用可能会在保护艺术家创作权的方式上带来革命性的变化。