11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
站长之家(ChinaZ.com)4月9日 消息:据报道,芝加哥大学的研究人员开发了一种名为Nightshade的工具,旨在防止未经许可的AI图像生成。该工具可以使AI图像生成器无法使用未经许可的图像进行训练,从而保护了艺术家和版权所有者的作品。Nightshade的工作原理是在图像中添加隐藏信息,这些信息对人眼不可见。当像Stable Diffusion这样的AI图像生成器尝试使用这些图像进行训练时,这些
随着人工智能技术的快速发展,其训练数据的获取和使用变得日益重要,但也出现了滥用现象。为了抵御这种滥用,一款名为「Nightshade」的新工具应运生,为创作者提供了一种保护他们创意作品不被无授权用于AI模型训练的方法。大多数这些产品都是基于文本的。
自ChatGPT几乎一年前登场以来,生成式人工智能进入了高速发展的时代,但反对声音也逐渐增强。许多艺术家、娱乐人士、表演者甚至唱片公司已经对AI公司提起了诉讼,其中一些诉讼涉及ChatGPT制造商OpenAI,原因是这些新工具背后的“秘密武器”:训练数据。研究人员已将他们关于制作Nightshade的工作提交给计算机安全会议Usinex的同行评审。
新工具Nightshade赋予艺术家一种全新的力量,让他们能够在上传作品之前,对其像素进行不可见的修改,从在作品被AI公司用于训练模型时,令生成的模型陷入混乱和不可预测的状态。Nightshade的设计初衷是为了反击那些未经创作者许可就使用其作品训练模型的AI公司。开发者希望通过Nightshade的推出,能够迫使AI公司更加尊重艺术家的权利,例如愿意支付版税等。