首页 > 业界 > 关键词  > Nightshade最新资讯  > 正文

Nightshade:艺术家全新反击工具,可用损坏训练数据“毒害”AI模型

2023-10-24 10:05 · 稿源:站长之家

划重点:

1. 🤖 艺术家反击AI:艺术家可以使用一种名为Nightshade的新工具,向他们的图像注入隐形的像素,使AI模型产生错误的认知。

2. 📜 背景:AI公司依赖大量的训练数据,包括来自艺术家的创作,引发了一系列法律诉讼。

3. 💡 希望与风险:Nightshade的开发者希望通过这一工具重塑AI与艺术家之间的权力平衡,但也承认可能被滥用。

站长之家(ChinaZ.com) 10月24日 消息:自 ChatGPT 几乎一年前登场以来,生成式人工智能(AI)进入了高速发展的时代,但反对声音也逐渐增强。许多艺术家、娱乐人士、表演者甚至唱片公司已经对AI公司提起了诉讼,其中一些诉讼涉及 ChatGPT 制造商 OpenAI,原因是这些新工具背后的“秘密武器”:训练数据。

也就是说,这些AI模型需要访问大量的多媒体内容并从中学习,包括艺术家创作的文字材料和图像,而这些艺术家既没有事先知道,也没有机会反对他们的作品被用于训练新的商业AI产品。

AI机器人画家画画

图源备注:图片由AI生成,图片授权服务商Midjourney

在这些AI模型的训练数据集中,许多包括从网络上抓取的材料,这一做法在用于索引他们的材料以提供搜索结果时,以前大多受到艺术家的支持。但现在,许多人已经反对这种做法,因为它允许通过AI创建竞争性作品。

即使没有提起诉讼,艺术家也有机会利用技术来对抗AI。麻省理工技术评论杂志提到了一个还在开发中的名为Nightshade的新开源工具。艺术家可以将Nightshade添加到他们的图像中,然后上传到网络,这个工具可以以一种对人眼隐形的方式改变像素,但对寻求对其进行训练的AI模型来说,却“毒害”了艺术品。

Nightshade由芝加哥大学的研究人员在计算机科学教授Ben Zhao的指导下开发,并将作为其先前产品Glaze的可选设置添加,Glaze是另一款在线工具,可以掩盖数字艺术品并改变其像素以混淆AI模型对其风格的认知。

就Nightshade而言,艺术家对抗AI的反击更进一步:它使AI模型学习错误的物体和景物名称。例如,研究人员通过在像素中注入信息,让图像中的狗看起来像猫。在仅对50张被“毒害”的图像样本进行采样和学习后,AI开始生成具有奇怪腿和不安视觉效果的狗的图像。在100张毒害样本之后,当用户要求生成一只狗时,它可靠地生成一只猫。经过300张毒害样本后,任何对猫的请求都会返回一个几乎完美的狗。

研究人员使用了开源的文本到图像生成模型 Stable Diffusion 来测试Nightshade,并获得了上述结果。由于生成式AI模型的工作方式的特性,即将概念上相似的词语和想法分组为称为“嵌入”的空间集群,Nightshade还成功追踪 Stable Diffusion 并在使用“哈士奇”、“小狗”和“狼”这些词语提示时返回猫的图像。

此外,Nightshade的数据毒害技术难以防御,因为它需要AI模型开发人员清除包含被毒害像素的任何图像,而这些像素是经过设计的,对人眼来说并不明显,甚至可能连软件数据抓取工具也难以检测到。

已经被摄入到AI训练数据集中的任何被毒害的图像也需要被检测并移除。如果AI模型已经在其上进行了训练,那么它很可能需要重新训练。

尽管研究人员承认他们的工作可能被恶意利用,但根据麻省理工技术评论杂志对他们工作的文章,他们“希望通过这一工具帮助重塑AI公司与艺术家之间的权力平衡,从而创建一个强大的威慑力,防止侵犯艺术家的版权和知识产权”。

根据该报道,研究人员已将他们关于制作Nightshade的工作提交给计算机安全会议Usinex的同行评审。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天