编辑:[db:作者] 时间:2024-08-25 08:58:10
经由迅速发展,如今的 AI 技能已经可以利用社交媒体素材轻松假造出有害照片。
近日,Arstechnica 的研究职员做了一项研究:大家在社交媒体上发布的真实照片,会被 AI 的二次创作“玩坏”吗?
为了找到答案,研究职员联系了一位志愿者,利用其供应的几张真实照片,用 AI 天生假照片。结果显示,这些假照片的威力巨大,很有可能毁坏其荣誉。终极,研究职员创建了一个名为约翰的虚拟人物,以其作为案例,一起看看 AI 是怎么把约翰“玩坏”的。
供应了 7 张照片后,约翰被 AI“玩坏”了这位名叫约翰的虚构人物,在假想的场景中是一名小学西席。和大多数人一样,他在过去 12 年里通过 Facebook 发布了不少自己事情、居家和外出时的照片。
以约翰的 7 张照片作为演习数据,就能演习出足以假造约翰形象的强大 AI 模型,并能把约翰的照片毫无马脚地放在任意背景之下。
这个 AI 模型天生的假照片维妙维肖,乃至到了以假乱真的底部,比如,约翰打扮成小丑跑去饮酒,约翰在周末参加准军事组织的演习,约翰几年前曾入狱服刑。
这些约翰照片来自名为 Stable Diffusion(1.5 版)的 AI 图像天生器,外加名为 Dreambooth 的技能。虽然约翰不是真人,但用真人的 5 张以上图像完备可以重现类似的结果。这类照片不难获取,社交媒体的发布内容可以、视频中的静止帧也行。
全体演习过程大概须要一个小时,演习完成后,图像内容的天生还须要几个小时——这不是由于天生过程太慢,而是研究职员从大量不完美的图片里挑出质量最高的图片。但无论如何,这样还是比亲自动手用 PS 画假约翰大略得多。
在 AI 的支持下,约翰可以是犯罪分子,也可以是变态狂人,如果利用针对色情内容优化的附加 AI 模型,约翰乃至可以成为色情明星。
AI 还能把约翰放置在奇妙的背景下,例如让他成为中世纪的骑士或者宇航员,让他显得年轻或朽迈、肥胖或瘦弱、戴眼镜或不戴,也能给他换上不同的衣饰。
有的合成图像并不完美。如果仔细不雅观察,有履历的人会创造这些并非真图。但相应的 AI 技能一贯在迅速发展,我们可能很快就无法分辨合成照片与真实照片间的差异。而且纵然存在毛病,这些假造图像仍有可能毁掉约翰的名誉乃至生活。
这便是技能的两面性所在。人们当然可以用 AI 创建天马行空的神奇画面,Lensa 等近期大热的商业做事和运用便是一例。然而,一旦有人未经他人赞许就利用对方的面部图像,那么同样的技能也可能造成恐怖的后果。
背后的事情事理打算机科学家们已经找到了利用真实照片教 AI 假造新画面的高质量方法,在过去的一年里,这项技能正日渐成熟。不过,这项技能一贯存在争议,由于除照片之外,它还许可儿们在未经容许下模拟在世艺术家的创作风格。
目前最具影响力的 AI 图像天生器之一是 Stable Diffusion。这种深度学习图像合成模型能够利用文本描述天生全新图像,可以运行在 Windows 或 Linux PC 的强大本地 GPU 上,也可以在 Mac 或者租用的云端硬件上起效。
在 Stability AI 雄厚财力的支持下,CompVis 学术组织利用互联网上获取的几亿张公开图像演习出了 Stable Diffusion AI 模型。Stability AI 于 2022 年 8 月 22 日将 Stable Diffusion 以开源软件的形式发布,现在任何人均可免费利用,其功能也被集成至越来越多商业产品当中。
通过强化演习,Stable Diffusion 神经网络学会了单词与图像中各像素位置间的一样平常统计关联。大家可以给 Stable Diffusion 供应一条文本提示,例如“摩根弗里曼坐在教室里”,然后就能得到相应的全新图像。
制作这类大明星的图像很大略,由于 Stable Diffusion 的演习数据集里没准有几百张摩根弗里曼的照片,它知道这位演员长什么样子。但如果想制作约翰这类普通人的图像,就得给 Stable Diffusion 一点额外的帮助。这便是 Dreambooth 的意义所在。
Dreambooth 微调模型谷歌研究职员于 2022 年 8 月 30 日宣告,Dreambooth 利用一种分外的“微调”技能帮助 Stable Diffusion 完成了新的学习。
最初,Dreambooth 实在跟 Stable Diffusion 没有任何关系,而且谷歌为了防止被滥用而屏蔽了 Dreambooth 的代码。但在公布不久之后,就有人主动把 Dreambooth 跟 Stable Diffusion 结合了起来,并将其代码作为开源项目免费发布。
从那时起,Dreambooth 开始成为 Stable Diffusion 学习全新艺术风格的主要“家教”。用户们在线上存储库里分享自己的 Dreambooth 微调模型,并供其他人下载以快速得到类似的视觉效果。
但从一开始,谷歌研究职员就知道这种技能完备可以用到人身上,而麻烦也将随之而来。因此他们在公布 Dreambooth 时,利用的是柯基犬的图像。但这点小心思当然躲不过评判者的法眼,《麻省理工科技评论》批评称,AI 科学家显然是在用这种悲观的办法回避其成果所带来的潜在负面影响。
用 AI“打败”AI未来,大概会有新的技能手段来戒备这种照片滥用。例如,法律可能哀求未来的 AI 图像天生器在输出中嵌入肉眼不可见的水印,以供日后考验。
比如,Stable Diffusion 就默认嵌入水印,但开源版本的用户可以删除或禁用水印组件来办理问题。不过,纵然法律逼迫哀求,市情上也还有其他不加水印的 Deepfakes 技能存在。
最近,麻省理工学院的研究职员公布了 PhotoGuard 对抗方法,能用一种不可见的方法奥妙修正照片,借此防止 AI 操纵现有图像。但其目前只适用于 AI 编辑(即「修正」),而非图像演习或天生。
其余,韶光大概能办理统统。随着人们对假造图像认知的增强,社会文化终极大概能够消化掉这些新问题。我们会逐步接管这样一种新的媒体呈现办法,并开始关注照片是否拥有可信来源。但在适应新形势之前,AI 合成的假造品肯定会造成一段期间的混乱。
本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/rsq/205435.html
下一篇:返回列表
Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码
声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com