知名百科  > 所属分类  >  百科头条   

AI诈骗爆发:预付AI诈骗

近日,某地公安机关发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生被骗子通过Ai换脸和拟声技术佯装好友借钱,在10分钟内被骗430万元。另据新闻报道,近期全国各地出现众多通过Ai换脸和Ai拟声技术进行电信诈骗的案件。

一、Ai技术已足以逼真克隆自然人形象和声音,令人防不胜防。

Ai技术进步了,首先拿来应用的果然又是骗子集团,他们的学习能力永远是最强的。Ai换脸和拟声实际上已经不够先进,最新的数字人克隆和声音克隆已经可以逼真复制某个人的形象和声音,该技术已被许多卖网课的老师们率先运用。以前是无图无真相,现在有视频都不一定是真的。

二、那么作为普通人如何预防Ai诈骗呢?

先听听Chatgpt怎么说:该案件中使用了AI技术进行电信诈骗,这表明骗子利用技术的手段提高了诈骗的成功率。为了预防此类AI诈骗,以下是一些建议:

1. 警惕微信视频来电:骗子利用AI技术进行诈骗通常会先通过微信视频来验证对方的身份,因此,您应该加倍警惕。

2. 深度判断交流内容:如果对方无端提出一些事情需要您去做,特别是需要您进行资金转移或提供个人信息等敏感操作,建议您不要轻易相信,建议您通过其他途径进行核实。

3. 注意使用防诈骗工具:现在市场上有各种防诈骗工具,包括短信拦截、电话拦截等。有些应用程序可以识别模仿来电的骗子。通过这些工具,您可以有效地保护自己。——最著名的防骗工具就是国家反诈APP了。

4. 增强安全意识:随着骗子技术不断提高,很难预测他们的下一个行动,因此,提高自己的安全意识非常重要。遇到可疑的操作,要保持冷静,不能轻信任何人,不要将个人敏感信息泄露给任何人。

总之,预防AI诈骗需要警惕、增强安全意识和使用防诈骗工具等多方面的努力。

怎么样,ai教你如何预防ai诈骗,基本上都说到了,但是还不够具体,我再来补充一些。

三、进阶防骗秘籍

1.视频和声音效果不会太好,注意观察识别。想要做到逼真的数字人克隆和声音拟声,需要足够长的原自然人视频和声音,骗子一般仅靠一两张被骗者的照片和一两句语音进行AI克隆,效果不会太好。仔细看,仔细听,总能发现破绽,面部肌肉不动啊、背景模糊虚假等等。

2.给好友微信添加备注。一般情况下,骗子还会“克隆”好友微信,就是将自己微信的名称、头像更换和被骗者好友一样,这是骗子通过添加好友微信然后实现的;然后伪装成你好友给你打视频、发语音。因此如果你给你的好友都添加备注名称,那么骗子打来的视频还是语音都只是好友原来的微信名称,会被你一眼识破不是本人。

3.对自己发出的照片和声音采取必要措施。在需要通过网络发送自己照片时,用绘图工具添加水印,让骗子无法换脸或克隆。在发语音时,尽量发短句,而不是非常长的语音,短语音不容易被克隆。

四、AI诈骗引申出数据合规问题

事实上我们普通人的照片只要留意搜索一下,都有很多公开的照片能够获得。以律师为例,在律所网站、律协、司法局官网都能查到,可谓是防不胜防。为了预防新的诈骗手段,对保存和展示个人信息的方式、方法,不能再向以往那样粗线条,让个人信息可验证但不可见、不可复制,才能最大限度防止通过AI技术实施诈骗。

附件列表


0

词条内容仅供参考,如果您需要解决具体问题
(尤其在法律、医学等领域),建议您咨询相关领域专业人士。

标签

暂无标签

同义词

暂无同义词