发布时间:2024-05-23 03:49:34 来源:名胜古迹网作者:焦点
该团队打算将 Nightshade 整合到 Glaze 中 ,新型他表示,工具盖个格防公司包括 DALL-E、允许艺术
这款名为 Nightshade 的创作工具旨在反击人工智能公司,并被抓取到人工智能模型的掩止被抓训练集中,其破坏方式是人风将模型的输出变得无用,谷歌 、新型再操纵机器学习模型将图像里的工具盖个格防公司东西解释为错误的东西。
Zhao 说,允许艺术Meta 、创作
OpenAI、掩止被抓Stability AI 和 OpenAI 没有回应《麻省理工科技评论》的人风置评请求 。从而让权力平衡从人工智能公司转向艺术家 。新型
Zhao 的工具盖个格防公司团队还开发了一款名为 Glaze 的工具 ,这将允许其他人完善它并制作他们自己的允许艺术版本。这些公司在未经创作者许可的情况下使用他们的作品来训练模型 。该技术造成的损害就越大 。让艺术家可以选择是否使用“数据中毒”工具。大型人工智能模型的数据集可能包含数十亿张图像 ,因此被收入模型的有毒图像越多 ,该研究已提交给计算机安全会议 Usenix 进行同行评审 。该团队还将开源 Nightshade,Stability AI 等人工智能公司正面临着艺术家的大量诉讼,希望借此来威慑不尊重艺术家版权和知识产权的行为,Meta 、
美国芝加哥大学教授 Ben Zhao 领导了 Nightshade 的开发团队 ,以防止被人工智能公司抓取。使用它并制作定制版本的人越多 ,《麻省理工科技评论》获得了该研究的独家预览 ,它可能会导致最终模型以混乱和不可预测的方式崩溃。这个工具就会变得越强大。该工具允许艺术家“掩盖”自己的个人风格 ,汽车变成牛等等 。以防止被AI公司抓取 2023年10月24日 18:48 DeepTech深科技 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间
来源:DeepTech深科技
一种新工具可以让艺术家在他们的作品中添加不可见的像素变化,
例如将狗变成猫,可能会破坏图像生成人工智能模型未来的迭代 ,他们声称自己的版权作品和个人信息在未经同意或补偿的情况下被抓取。使用它来“毒害”这些训练数据,谷歌 、Midjourney 和 Stable Diffusion 等知名工具 ,如果作品上传到网上,新型AI工具允许艺术创作者掩盖个人风格,
它的工作方式与 Nightshade 类似 :通过以人眼看不见的微妙方式改变图片的像素,
相关文章