随着AI技术的不断发展,我们的现实世界正逐渐充斥着各种令人咋舌的情景。诈骗分子为了骗取钱财,开始利用AI技术来模仿人的外貌和声音,让受害者无法分辨真假。 想象一下,你正在观看一个视频,却完全不知道里面的人其实是假的!不经意间,你就掉进了诈骗分子精心设置的陷阱,最终导致金钱损失。 常见类型 骗子通过骚扰电话录音等方式对目标人群的声音进行提取,获得素材后进行声音合成,利用伪造的声音欺骗对方。同时,微信语音也可以通过非正式渠道转发。骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会通过提取语音文件或安装非官方版本(插件),转发之前的语音,进而骗取钱款。 AI换脸 视频通话往往更易取得对方信任。骗子利用AI技术进行换脸伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!骗子首先分析公众发布在网上的各类信息,通过AI技术筛选目标人群。在视频通话中利用AI换脸技术,骗取对方信任。 精准人群 通过AI技术筛选受骗人群骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。例如当进行金融诈骗时,那些经常收集投资信息的朋友们往往成为他们潜在的目标。利用AI技术、操纵套路和剧本,为受害者打造精心准备的圈套陷阱。 警方提醒: 针对花样翻新的AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。 如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。如不慎被骗或遇可疑情形,请注意保护证据立即报警。 |
Archiver|手机版|厦门旅游网 ( 闽ICP备15009956号-2 )
GMT+8, 2024-12-22 01:55 , Processed in 0.024299 second(s), 15 queries .
Powered by Discuz! X3.4
© 2001-2023 Discuz! Team.