7个危险信号在最新的Deepfake骗局中观看

您如何保护自己免受欺诈者的身份。


Deepfake骗局变得越来越普遍。 根据彭博社的说法,仅在美国,去年消费者损失了近88亿美元,比2021年增长了44%。虽然骗子完善了他们的手艺,但仍有一些危险信号需要注意,您可以采取预防措施来避免使用预防措施。 堕落的受害者。

有关的: 联邦调查局发布了3个技巧,以保护自己,随着暴力极端主义威胁的增加

AI生成的声音可以欺骗父母

彭博社指出,计算机生成的孩子的声音“如此现实,他们愚弄了自己的父母”,通常用于Deepfake骗局。 他们解释说,父母接到了带有AI的孩子的声音,与真实事物无法区分。 被称为“社会工程骗局”,它们的命中率最高,并为欺诈者带来了一些最快的回报。

“克隆一个人的声音越来越容易。一旦骗子从某人的社交媒体或语音邮件中下载了一个简短的示例或语音邮件消息 - 它可能短达30秒钟,它们可以使用AI语音合成的工具,可以在线创建ai语音合成的工具 他们需要的内容。

如何捍卫自己

Better Business Bureau提供了很多技巧,首先要真正注意发送的视频。 “ 质量差的深烟很容易识别 。 在视频中查找孤立的模糊斑点,与面部的双重边缘,视频期间的视频质量变化,不自然的眨眼或没有闪烁,以及背景或照明的变化。 如果您注意到这些明显的迹象,那么您可能会在看一个深板视频。” AE0FCC31AE342FD3A1346EBB1F342FCB

同样,仔细听音频。 他们说:“假音频可能包括断断续续的句子,不自然的或有现场的拐点,奇怪的措辞或与扬声器位置不符的背景声音。这些都是假音频的迹象。”

确认身份

并且不要相信您在网上看到的一切。 “骗子指望您在不验证其身份的情况下宽容他们。如果您无法验证他们的真实身份,请始终使用健康的怀疑态度。要警惕以名人或政客为特色的视频 特别是分裂或丑闻。”他们说。

另一个提示? BBB说:“请确保您知道与谁交谈。” “随着DeepFake技术的进步,您需要确认与谁交谈的身份,即使您认为自己知道并信任他们。” 虽然您可能会向一个陌生人寄钱,他将您从蓝色中召唤出来,但“如果骗子开始使用Deepfakes模仿您的亲人,那么跌倒的受害者可能会更容易。”他们指出。 “如果朋友或家人提出了符合特征的请求,请注意并在寄钱或放弃敏感的个人信息之前确认其身份。”

有关的: 随着价格上涨,增加储蓄的7种方法

保持警惕

他们还强调了谨慎在线发布内容的重要性。 “骗子可以制作您的Deepfake视频的唯一方法是,他们是否可以访问以您的脸为特色的照片和视频。请保持对模仿的可能性。请确保您的家人知道深果,并在发布时谨慎行事 事情公开。”他们说。

另一个建议? 不要根据病毒视频做出财务决策。 他们说:“如果名人坚持要在病毒视频中投资比特币或向特定的慈善机构捐款,请在汇款之前进行一些研究。Scammers希望通过模仿您信任的人来赚钱。”


Categories: 聪明的生活
Tags: / 消息 /
剃光头发趋势:7名名人给你收入
剃光头发趋势:7名名人给你收入
研究发现女性的两倍,可能是男性的心情舒畅后离婚
研究发现女性的两倍,可能是男性的心情舒畅后离婚
这一个茶的习惯遗址的健康益处,新的研究认为
这一个茶的习惯遗址的健康益处,新的研究认为