随着人工智能技术的快速发展,训练数据的获取和使用变得越来越重要,但也出现了滥用现象。为了解决这一问题,一款名为「Nightshade」的新工具应运而生,为创作者提供了一种保护创意作品免被无授权用于AI模型训练的方法。
「Nightshade」工具使得用户能够将其附加到他们的创意作品上,从而在使用该作品进行训练时「毒化」AI模型的数据。通过对数字艺术作品的像素进行不可见的修改,「Nightshade」能够在作品被AI模型训练时利用安全漏洞对模型造成混淆。例如,它可以让模型无法识别汽车图像,反而识别为牛的图像。最终,这种毒化数据可以破坏诸如DALL-E、Stable Diffusion和Midjourney等AI艺术平台的未来模型,剥夺其生成图像的能力。
据《麻省理工学院科技评论》报道,芝加哥大学教授兼「Nightshade」的创建者之一Ben Zhao希望通过这款工具,改变目前AI公司借助侵权数据训练模型的现状。「Nightshade」的研究论文指出,文本至图像的AI模型很容易受到这种攻击的影响。
创作者可通过将他们的作品上传到「Nightshade」创建者开发的另一款工具Glaze中,保护其艺术风格不被模仿。例如,Glaze可以将通常的现实主义绘图转变为立体主义风格。未来,「Nightshade」将被集成到Glaze中,让用户选择是否使用「毒丸」,或满足于模型无法模仿他们的艺术风格。
「Nightshade」的创建者在论文中提议,应将「Nightshade」及类似工具作为保护创作者免受不遵守退出规则的网络爬虫侵害的「最后防线」。
目前,围绕AI生成内容和训练数据的版权问题在缺乏相关法规的情况下仍然是一个灰色地带。许多与版权侵权战斗的诉讼仍在法庭上进行。同时,防止网络爬虫未经许可获取数据的方法也受到了限制。Adobe公司计划使用标记来标识是否为AI生成的内容,同时显示图像的所有者。
最初针对生成性AI平台的一些诉讼集中在版权材料被无授权用于模型训练上,特别是在文本至图像平台方面。今年1月,三名艺术家分别起诉了Stable Diffusion、Midjourney和艺术网站DeviantArt,声称其模型未经许可使用了他们的艺术作品。Getty Images也在构建自己的基于许可图像训练的AI图像生成器之前,对Stable Diffusion提起了诉讼。
谷歌和微软表示,如果客户在使用他们的生成性AI产品时因侵犯版权而被起诉,他们愿意承担法律责任。然而,大多数这些产品都是基于文本的。