拆解AI造假4大套路:从仿冒名人到克隆声音,如何防范?

 
日期:2024-12-17 03:58   点击数:101   来源:   共有条评论
分享到
 

近日,一段AI技术假冒知名医生张文宏带货的视频引发热议。随后,微信平台发布消息称,已关闭209个利用AI技术仿冒名人进行营销的账号。随着人工智能(AI)技术的快速发展,其在造假与违法犯罪领域的应用正变得越来越普遍。以下是记者整理的AI造假常见套路及防范措施。


套路一:仿冒名人,炮制虚假视频和声音

利用AI技术生成名人形象和声音已经成为造假的高发领域。以医生张文宏为例,骗子利用AI技术制作虚拟视频,模仿其形象售卖蛋白棒,甚至有产品售出超千件。此外,雷军的“AI配音”恶搞视频、胖东来创始人于东来的AI声音带货案例,均暴露了AI仿冒技术的潜在风险。

根据微信平台的数据,仅近期就已处置532条相关内容并关闭209个账号。然而,这种仿冒行为仍在持续蔓延,不仅侵害名人形象,还对社会秩序和消费者权益造成危害。


套路二:炮制虚假新闻,传播谣言

AI生成虚假新闻的能力让造谣变得更加轻松和高效。公安部网安局公布的案例显示,不法分子通过AI技术编造“地震”、“高层火灾”等谣言,引发公众恐慌。今年6月,上海警方查处两名使用AI生成视频造谣的品牌营销人员,涉案谣言包括“中山公园地铁站捅人”等。

研究显示,AI生成的经济与企业类谣言量增速高达99.91%。AI可以根据关键词快速生成仿真的新闻内容,只需简单添加时间、地点与背景音乐,数秒钟内便可完成“伪装”。


套路三:换脸诈骗与隐私窃取

AI换脸和换声技术被广泛用于诈骗与敲诈。例如,宁夏居民马某某因表哥的AI视频通话而被骗1.5万元;山东威海一居民收到利用AI生成的裸照后,被敲诈20万元。这些案件凸显了AI技术在个人隐私窃取和敲诈勒索中的滥用。

不仅如此,AI窃取隐私信息的案例也屡见不鲜。今年9月,杭州警方破获一起利用AI技术突破人脸识别系统,非法窃取个人敏感信息的案件。这种通过AI技术实施隐私窃取的行为严重威胁公民的信息安全。


套路四:克隆声音,轻松伪造对话

AI语音克隆技术门槛极低。只需获取10秒钟的声音样本,便可生成高还原度的语音模型。不法分子利用此技术,通过伪造电话、语音指令等手段进行诈骗。甚至有平台提供“一键克隆”服务,售价低廉,吸引大量非法需求。

在网络平台上,雷军、周杰伦、郭德纲等名人的AI语音模型被滥用,次数高达数十万次。此外,这些模型生成的音频可被用于伪造合同、广告、甚至是电话诈骗。


如何防范AI造假?四招保护个人信息安全

  1. 避免连接陌生WiFi
    公共场合的免费WiFi可能是钓鱼陷阱,容易导致信息泄露。

  2. 警惕钓鱼链接
    收到不明来源的短信或邮件时,不要轻易点击链接,以免遭遇病毒或恶意软件攻击。

  3. 慎扫不明二维码
    二维码可能暗藏木马病毒,在扫描前务必核实来源。

  4. 保护个人信息
    避免在社交媒体上晒含有敏感信息的内容,例如机票、身份证、位置信息等。