2025-05-14 05:24来源:本站
当这个笑话是关于汤姆·克鲁斯的时候,Deepfake一开始可能看起来很有趣。
但现在,合成内容和“假摄影”的爆炸式增长正在迅速改变我们在日益网络化的生活中的互动方式。
眼见为实不再可信。
美国大选充斥着数字处理过的图片,昆士兰州的选举也面临着同样的问题。
Reddit和推特上流传着无数哈里斯和特朗普的假照片,都声称自己是百分之百真实的。
专家表示,视频会议可能成为犯罪分子的新阵地,对依赖技术进行日常交易的企业进行诈骗。
深度伪造的“变焦电话”(人们以为自己在与老板交换商业敏感信息,但实际上是在与一个由犯罪分子控制的网络克隆者通话)的前景可能会让在家工作永远陷入困境。
世界经济论坛(World Economic Forum)的一份报告发现,66%的网络安全专业人士在2022年遭遇过深度假攻击。38%的大公司遭受过深度造假的攻击。
一些合成内容非常复杂,随着大量内容涌向我们,从虚构中分辨事实变得越来越困难。如果你使用社交媒体,你每天会接触到超过32亿张图片和超过70万小时的视频。
有很多方法可以识别假货。
合成视频也有自己的奇怪之处,比如声音和动作之间的轻微不匹配以及扭曲的嘴巴。
他们通常缺乏真人的面部表情或微妙的身体动作。
没有闪烁可能表明视频是电脑生成的。
然而,Midjourney等软件的更新版本正在迅速解决这些问题。
对于那些不想被欺骗的人来说,有一些软件——用于深度伪造检测和深度伪造水印——但它有自己的局限性,不能总是依赖。
像REVEAL图像验证助手这样的图像验证工具对于检测错误/虚假信息也很方便,但你需要有悟性来解释结果。
另外,这也引出了一个问题——我们是否应该使用人工智能工具来对抗人工智能造假?
你最好的防御就是你自己。先想一想,问一些简单的问题来判断是不是假的。
很多时候,你自己的结论就足以决定什么是真的,什么是假的。
肖恩说道……
如果你打算尝试生成式人工智能,你需要牢记以下几点。
隐私:不要分享人用人工智能软件获取信息。我们知道这些系统将我们的事实用于训练。无论你输入了什么,你都要交给开发软件的公司,让他们随心所欲地使用。
目的:你为什么要使用人工智能软件?你是否使用它来复制别人已经创建的东西?你是否重复使用别人的原创作品,无论是印刷品、艺术品还是设计?
同意:如果你在创作一个形象,你在描绘谁?这是恶搞吗?他们会受到这种描述的伤害吗?这项技术可以迅速跨越道德或法律界限,特别是在未经授权使用人们的肖像时。确保您了解当地有关隐私和侵权的法律如果使用真人的图像或声音,请获得国家许可。
披露:许多品牌现在正在实施验证标识,但有一个回应个人也有责任。如果你在社交媒体上分享你的人工智能作品,你是否明确表示它们是电脑生成的?如果在没有披露的情况下进一步分享会发生什么?
核实:在哪儿E是来自?其目的是什么?你和其他人核对过了吗在线图像,看看它是否被欺骗性地改变了。不要在社交媒体上分享你认为可能被篡改的图片,尤其是如果篡改的目的是欺骗。