衝突升溫!藝術家對抗AI:數據污染工具解析
目录:
- 前言
- 争议:AI对艺术家的影响
- Nightshade:抗版权侵权的艺术家工具
- Glaze:保护艺术家独特风格的AI工具
- Nightshade与Glaze的合并计划
- 通过数据污染破坏AI模型
- 反对派和倡导者的观点
- 已有数据集的影响
- 开放AI的反应和未来发展
- 结语
AI对艺术家的影响及Nightshade的出现
🎨第1节:前言
自从AI革命开始,引起了一个非常有争议的问题,也就是艺术家对中间旅程(Mid Journey)等AI生成工具盗用他们作品抱怨不断,使他们失去了工作机会。这些工具可以用来生成艺术作品,但问题是它们是基于艺术家的作品训练的。最近出现了一个被称为Nightshade的新工具,人们说这是一种抵制对艺术家作品进行未授权AI训练的方式。今天,我将在播客上解释什么是Nightshade,并探讨我对未来AI发展的看法。
💡第2节:争议:AI对艺术家的影响
艺术家和AI公司之间的紧张关系正在发展,并且出现了一个有趣的转折。Nightshade这个新工具出现了,它可以让艺术家改变他们艺术作品的像素。如果AI公司擅自使用这些图片作为培训数据,结果可能是一个损坏的AI模型,产生出荒谬和无意义的输出。Nightshade的主要目标是对抗未经艺术家批准使用作品的AI实体。它定位于削弱Dolly、Mid Journey、稳定扩散等AI模型的输出。这个工具的出现实际上改变了以前生成的狗图片,变成了猫的图片,或车变成了牛的图片等。这种工具的潜力不仅仅局限于单词关联,还包括其他相关术语。这样一来,AI模型对于某些提示词的产生可能会出现错误。尽管存在着数据污染所需的大量图片的问题,但研究表明,稳定扩散生成的图片已经变得非常奇怪。因此,Nightshade的出现对AI模型的基础产生了破坏性的影响。
💥第3节:Nightshade:抗版权侵权的艺术家工具
Nightshade具有破坏AI模型的能力,对AI公司依赖于庞大的互联网数据进行训练构成了威胁。它通过篡改图片的方式来破坏AI模型。此外,艺术家可以使用Glaze来保护自己独特的风格免受AI算法的影响。Glaze与Nightshade相结合,通过对图片像素进行操作,使其对人类难以辨认,从而干扰AI模型的训练过程。计划将Nightshade的功能合并到Glaze中,艺术家将有权决定是否使用Nightshade。将此工具开源将增加其使用的人数。大型语言模型的数据集中包含数十亿张图片,引入更多这样的图片可能削弱AI生成图片的能力。因此,Nightshade针对生成AI模型的弱点,即其对广泛互联网数据的依赖,旨在破坏AI模型的基础。
🌟第4节:Glaze:保护艺术家独特风格的AI工具
Glaze是另一个来自Zha团队的工具,它允许艺术家保护他们独特的艺术风格免受AI算法的影响。Glaze与Nightshade相辅相成,通过图片像素的操纵使其对AI模型具有迷惑性。对于人眼来说,这些图片的像素可能不起眼,但对于AI模型来说,它会在训练过程中造成混乱。计划将Nightshade的功能与Glaze结合起来,使艺术家能够在AI公司无意中将这些“有毒”的图片纳入训练集时,破坏AI模型的性能。
📉第5节:通过数据污染破坏AI模型
Nightshade的潜力不仅仅止于直接单词关联,例如“狗”,还可能涉及其他词汇如“狗狗”、“哈士奇”、“狼”等。混入了一些错误的图片之后,AI模型对于某些提示词的生成将会出现错误。例如,当稳定扩散模型加载了50张混乱的图片,生成的图片会变得非常奇怪,产生多肢、卡通般的狗。当加载了300张这样的图片后,狗的图片完全转变为猫。这就意味着,经过这些图片的AI模型可能会在不同的提示词下产生错误的生成结果。所以,Nightshade的破坏力量超越了常规的单词关联,而对于与之相关的单词也产生了混乱。
👥第6节:反对派和倡导者的观点
在目前还没有听说有人对这一工具抱有反对意见的情况下,很多人对此感到兴奋。此外,一些艺术家认为这将是一种保护知识产权和增加版税收入的好方法。对于艺术家来说,不愿意将自己的内容包含在AI公司的数据集中,AI公司提出了选择退出的条款。然而,很多人对此表示不满,认为这种做法并不足够。无论如何,这个工具的出现无疑引起了人们的关注,而AI公司有必要更好地尊重艺术家的权利,并可能增加版税支付。
📚第7节:已有数据集的影响
虽然有大量的已有数据集,AI公司已经通过对数据进行抓取和构建来训练他们的模型,但我个人认为,对于一些新的艺术形式,如果AI公司不能获得许可,他们可能无法达到与其他具有版权的数据集相同的准确性。然而,结果取决于新的艺术技术是否会出现,以及AI公司是否能够获取这些技术的许可。然而,总体而言,具有已有数据集的AI模型受到的影响似乎不会很大。
🔮第8节:开放AI的反应和未来发展
承认Nightshade可能被用于一些不良目的,如破坏大型语言模型,但要实现这一目标需要大量图片进行数据污染,而这些大型模型通常是基于数十亿个样本进行训练的。一位与该项目无关的Cornell大学教授和安全研究人员Vitaly Smatov强调了开发防御手段的紧迫性,并对Nightshade表示赞赏。来自哥伦比亚大学的Jeang Yang认为,Nightshade可能会促使AI公司更好地尊重艺术家的权益,并可能导致版税支付增加。尽管Nightshade的成功与否还有待观察,但我认为一些人可能会利用这个工具来破坏竞争对手,建立自己的优势地位。无论如何,这个工具的出现引起了对AI模型漏洞的关注,人们需要了解和防范这些漏洞的存在。
📚第9节:结语
整个AI公司与艺术家之间的争议正在不断发展,并围绕Nightshade这个新工具产生一个有趣的辩论。一些人认为AI对艺术家的影响需要一种平衡,而这个工具似乎提供了一种解决方案。然而,一些人认为除了Nightshade之外,还需要采取其他措施来保护艺术家的版权和知识产权。无论如何,这场辩论将继续进行,并将对AI公司的运作产生深远影响。
FAQ:
Q: Nightshade是否会影响已有的大型AI模型的训练?
A: Nightshade通过对图片像素进行操作,干扰AI模型的训练过程,可能使已有的大型AI模型的生成结果产生不准确的情况。
Q: 艺术家是否可以选择不让AI公司使用他们的作品?
A: AI公司提出了允许艺术家选择退出的条款,但很多人认为这种做法不足够,应该更好地尊重艺术家的版权和知识产权。
Q: Nightshade的出现是否会对AI公司的利益产生影响?
A: Nightshade的出现可能会导致AI公司面临版权诉讼和知识产权问题,要求他们更好地尊重艺术家的权益,并可能导致版税支付增加。
资源链接: