Deepfake 视频对公众构成威胁
问题是有多少人意识到这是一个骗局,但为时已晚,但我们担心这个数字非常高。
Deepfake 录音甚至在人工智能出现之前就以我们今天所知的形式存在(ChatGPT、Bard、Bing、Midjourney...)。但随着大型语言模型的出现,这些录音变得异常真实。不法之徒利用这项先进技术达到邪恶目的只是时间问题。
他们选择了最好的目标。 MrBeast 以其奢华的 YouTube 视频而闻名,在视频中,他用昂贵的汽车、私人飞机、电话、房屋和类似的礼物来取悦他的粉丝和路人。 MrBeast 赠送几乎免费的 iPhone 15s 的情况也并不少见。就连恶意的人也下注了。假MrBeast敦促观众点击视频中的链接,但其幕后目的是窃取数据。
MrBeast 的深度伪造视频最近在 TikTok 上出现,它可能不仅对用户而且对平台造成了巨大损害,该平台现在将解决未来如何防止这种情况的问题。
MrBeast 并不是人工智能诈骗的唯一受害者。普京的形象过去也曾被滥用来传播虚假信息。
尽管名人是更有吸引力的目标,但普通人也面临风险。 BBC 记者 Matthew Amroliwala 和 Sally Bundock 也亲身经历过这一点。他们的形象被用来宣传金融骗局。在视频中,这位记者应该由地球上最富有的埃隆·马斯克主持,后者应该向他询问目前被认为最有利可图的投资机会。埃隆·马斯克过去也曾是深度伪造视频的受害者,据称他在视频中捐出了自己的财富并提供了有关加密货币的建议。
到目前为止,Meta(以前的 Facebook)在此类视频中附加了有关可能存在虚假信息的警告,这些视频是由 FullFact 组织发现的。后者的使命是检查新闻和社交媒体上出现的所有可能的违规行为。 Meta 的代表也发表了讲话。 “我们不允许在我们的平台上出现此类内容,并已立即将其删除。我们不断努力改进我们的系统,并鼓励任何看到他们认为违反我们政策的内容的人使用应用内工具进行举报。然后我们就可以研究它并采取行动。”
TikTok 也插手,在 MrBeast 的虚假视频发布数小时后将其删除,并禁止了违反其服务条款的账户。 TikTok 在其政策中将这种“合成”视频列为禁止内容。
与此同时,真正的 MrBeast 呼吁 X 平台(以前的 Twitter)和其他平台回答这样的问题:他们是否为此类骗局的兴起做好了准备。
如何识别深度伪造录音?
尽管目前经典的网络钓鱼攻击和勒索软件攻击仍然是最常见也是最成功的攻击形式,但深度伪造和人工智能攻击可能会在一段时间内变得更加常见。
最近,就连汤姆·汉克斯也因为人工智能而不得不为自己辩护。他的照片被盗以宣传一项有争议的牙科计划。
人工智能系统只会变得更加先进。随着发展,人们对如何识别此类骗局的担忧将会增加。黄金法则是,如果您发现有人免费向您提供某些东西的视频、帖子或消息,尤其是通常需要大量金额的产品或服务,请保持怀疑。
MrBeast 的形象多少贬低了这条规则。正是因为他的视频中,参与者还争夺诱人的奖品,所以上述深度伪造视频很难被识别为骗局。
我们别无选择,只能始终小心并事先检查每一条信息。那些最细心的用户还会注意到其他一些可疑迹象,这些迹象可能表明这是一个骗局。
在 MrBeast 的剪辑中(您可以在 bit.ly/DeepfakeRN 上观看),攻击者使用了一位著名 YouTuber 的名字,并带有我们在官方个人资料中习惯使用的蓝色复选标记。如果您是 TikTok 的常客,您就会知道这种名称放置是不必要的,因为所有视频都已在 TikTok 徽标下方包含上传者的姓名。
就 BBC 记者而言,怀疑的原因更多是出于语法原因。演示者念错了数字 15,并以不寻常的语调发音了“project”这个词。还有一些小语法错误,您很容易忽略这些错误(例如,错误使用“was, were”)。随着时间的推移,录音变得越来越真实,这些类型的错误对于检测欺诈非常重要。在同一个片段中,很难看出埃隆·马斯克的左眼上方多了一只眼睛。眼睛、手指和类似的细节在人工智能镜头中经常会变形,但对我们来说,这代表着避免灾难的机会。
对于禁止此类录音持有不同意见的法律专家也纷纷发声。如果我们禁止深度造假技术,我们也会损害用特效制作的电影和电视剧中的真实内容。
封面图片:图片由 rawpixel.com 在 Freepik 上提供