首页 > 传媒 > 关键词  > 正文

维信金科提醒:诈骗也玩高科技,如何才能精准识别?

2024-04-15 17:17 · 稿源: 站长之家用户

AI技术的迅速发展,在给人们提供便利的同时,也给诈骗分子留下可乘之机,为“AI诈骗”犯罪提供了土壤。一些不法分子利用AI深度伪造等新工具,实施电信诈骗、散布虚假信息,其陌生的”新面孔“,让很多人因不了解而对其放下戒备之心,更让人“防不胜防”。因此,维信金科要说的是,只有了解AI诈骗的实施过程和常用手法,才能更有针对性对其进行防范和处置。

作为一种利用智能AI技术实施诈骗的新型诈骗手段,AI诈骗正随着技术的发展变得越来越普遍而复杂。骗子们所瞄准的,往往也不只是大型企业。一段时间以来,国家金融安全总局等相关部门曾多次发布关于警惕利用AI新型技术实施诈骗的风险提示,提醒广大消费者提高警惕,维护个人及家庭财产安全。

换脸、拟声、定制剧本,AI诈骗花样百出

近期,AI诈骗案件在国内频频发生。2023年4月,内蒙古包头市曾发生一起涉案金额高达430万的AI诈骗案。当事人郭先生收到好友的求助,在经过视频电话确认身份后将钱转出。所幸因其及时报警,有300余万的资金被冻结。

去年年底,泸州市公安局江阳区分局北城派出所民警接到陈女士的报案,称自己的女儿被绑架,绑匪索要赎金80万元。经民警调查,陈女士遭遇的是“AI拟声”诈骗。更多案件甚至一度冲上热搜,引发全国上下广泛关注。

综合来看,此类案件最常见的手段之一就是“换脸”。通常来说,人脸效果更容易获取信任。骗子通过截取或收集某人的面部视频画面,利用AI技术换脸,制造视频聊天的假象,骗取受害者的信任和钱财。

与之相对应的诈骗手段“拟声”,主要是骗子通过骚扰电话录音等来提取某人声音,后进行声音合成及伪造。除此之外,诈骗分子还会AI 技术分析公众发布在网上的信息,根据所要实施的骗术对人群进行筛选,在短时间内生产定制化诈骗脚本,从而实施准确诈骗。

记住这几点,AI诈骗可预防、可识别

针对“AI换脸”“拟声”两大诈骗手段,民警提示,两种诈骗方式都受限于样本数量,大家可以通过延长通话时间、多次进行提问的方式让对方多说话,露出破绽。

此外,还可采用“脸部遮挡”这一方式进行分辨。目前,“AI换脸”技术主要采取脸部正面图像进行技术解析,视频通话过程中,用手部短暂遮挡面部位或有物体在面前晃动,脸部会出现明显的变形。可要求对方用手在面前晃动,以此进行辨别。

面对更加多样的AI诈骗手段,消费者需牢记以下两点:一是转账汇款务必核验对方身份。面对自称“熟人”、“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份。可在沟通过程中提问仅双方知晓的问题,也可利用其他通讯方式或见面核实,或向对方的朋友、家人验明身份和情况。还可将转账到账时间设定为“24小时到账”,以预留处理时间。二是保护好照片、声音等个人信息。消费者应提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友,对个人社交账户的安全状况保持警惕。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不贪图方便把身份证、银行卡照片等直接存放在手机内。

最后,维信金科再次提醒大家,虽然“AI诈骗”相比于传统诈骗更加具有迷惑性,但只要牢记,不轻信、不惦记、不透露、多核实,“AI诈骗”自然就不难防。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 大家在看

今日大家都在搜的词: