deepfakes:真相#01的敌人

As+deep+fake+technology+evolves%2C+the+veracity+of+video+is+called+into+question.

爱德蒙乔通过flickr

深假冒技术的发展,视频的真实性受到质疑。

通过 tizia - 夏洛特frohwitter,特约撰稿人

想象你看到自己在电视上说或做一些妥协,你代表的一切。现实情况是,这是不是你,而是一个deepfake。谁还会相信你吗?第一,什么是deepfakes为什么我们需要这么怕他们?一个 deepfake 是声音,图像或视频的逼真的数字化操作来冒充有人上当的人相信虚拟技巧是真实的。  

他们主要通过神经网络的形式一起使用的机器学习算法与面部绘图软件创建的。 这是足以让冷不寒而栗向上和向下一个人的脊椎。到底能deepfake渗透到我们的生活轨迹? 

可以在流行的应用程序,如的的TikTok,faceswap发现deepfakes,赵无极和许多其他人都笑的来源,似乎乐趣,吸引力和最重要的是:无害。 

虽然他们看起来无辜的,他们对社会的基本结构一个巨大的威胁:在媒体的信任在我们所看到的理想和听到。作为我们的能力,相信我们自己的感觉是粗暴侵犯,它最终导致了我们所知道的是真相缓慢衰减的确定性。 

造成这种令人不安技术的潜力恐怖的一个是deepfake色情。这些影片真实地换一个人的面部上的性行为从事另一个人。这个问题已经得到了特别的媒体关注像名人 艾玛·沃特森 牺牲品这个残酷的恐怖主义。的名誉伤害和羞辱的那些视频策动感觉超出了我们的想象,并有毁掉一个人的一生在一眨眼的潜力。 

此外,敲诈将达到完美的新高度,因为它从来没有这么容易操纵“证据”到的东西令人难以置信的损坏,如假种族主义言论或通奸。相反,随着deepfake变得更加普及,它可以被通过只是声称它实际上是一个deepfake用于无效实际真正的证据。 

循环的争议,“假新闻”将提升到新的层面。极化选举可能远远超过我们迄今遇到的。在deepfake作为宣传的武器可以升级的恐惧,释放出混乱,长期存在的政治领导人和机构信心的丧失。

它可以,例如,错误地描绘士兵杀害无辜的儿童,或政府官员反对间谍泄露国家秘密勾结。想象一下,如果deepfakes描绘这些图像,会发生什么样的民间社会?它最终可能会质疑我们民主的未来。 

已经公布的视频可以举出现实 唐纳德·特朗普 解释洗钱101 马克·扎克伯格 令人信服吹牛,Facebook的的拥有它的用户。 甚至怀疑者有可能被误以为在他们的视力和耳朵的“真理”。

但deepfakes的潜在致命后果不误导普通公民停止。政府可能使用生成的数据为自己的议程。最近的视频分享应用 的TikTok 实施deepfake工具。我们。枢密约什Hawley的指责送他们的8亿(300万次无中国)订户的面的详细多角度生物特征扫描到的的的TikTok 中国政府 用他们的面部识别,监视和跟踪。因此, 我们。军事 已经禁止应用程序的使用了它的军人和妇女。 

恶意deepfake用户可能最终能够通过使用面部支付诈骗银行。目前,阿里巴巴声称它是不可能被破解的支付宝 “微笑支付” 通过这个工具服务。不过,目前已经有至少 三个已知的情况下,,其中deepfake音频已经被用于从公司偷钱。 

什么可以做,以保护自己免受这种技术?在这一点上,最有效的工具,我们已经是意识。驳斥视频是由技术障碍的挑战,但科学家们在世界各地都抢着要寻找对策。 

目前,神经网络还没有的人脸因而有时不自然的现象产生,如不一致的闪烁和像素矛盾的深刻认识。研究人员 加州大学伯克利分校 开发人工智能算法通过的头和手势动作的跟踪检测这些恶性的视频。然而,头部运动探测器可能只能保护世界各国领导人和社会名流的算法与相应的个人进行培训,使一般市民不太有效。即使我们最终实现有效地检测和删除它们 - 互联网不会忘记。 

另外一个角度来解决这个问题是通过法律工具。然而,诽谤和刑法将还远远不够。加利福尼亚州,那里的政客deepfakes是 视为非法 内选举后60天内,面临的困难强制执行这个法律。 

“... [T]他 非商业性表达行为强大的保护(例如,讽刺或模仿),使其更难以在deepfakes加以限制的,”福德姆法律的信息法学教授奥利维尔·西尔指出。 “因此,挑战deepfake影片可能会更容易通过使用版权或右宣传的权利要求,其中提出自己的挑战完成“。 

比赛已经开始打击这种危险的技术,它的破坏性后果。 目前,创建真实的deepfakes需要的专业知识。但是,毫无疑问,该技术将推进到一定水平,每12岁能利用一时兴起的软件。通过人工智能解雇,数字模拟是在上升。  

最终,即使是真理也许注定是假的。