近日,一段AI技术假冒知名医生张文宏带货的视频引发热议。随后,微信平台发布消息称,已关闭209个利用AI技术仿冒名人进行营销的账号。随着人工智能(AI)技术的快速发展,其在造假与违法犯罪领域的应用正变得越来越普遍。以下是记者整理的AI造假常见套路及防范措施。
套路一:仿冒名人,炮制虚假视频和声音
利用AI技术生成名人形象和声音已经成为造假的高发领域。以医生张文宏为例,骗子利用AI技术制作虚拟视频,模仿其形象售卖蛋白棒,甚至有产品售出超千件。此外,雷军的“AI配音”恶搞视频、胖东来创始人于东来的AI声音带货案例,均暴露了AI仿冒技术的潜在风险。
根据微信平台的数据,仅近期就已处置532条相关内容并关闭209个账号。然而,这种仿冒行为仍在持续蔓延,不仅侵害名人形象,还对社会秩序和消费者权益造成危害。
套路二:炮制虚假新闻,传播谣言
AI生成虚假新闻的能力让造谣变得更加轻松和高效。公安部网安局公布的案例显示,不法分子通过AI技术编造“地震”、“高层火灾”等谣言,引发公众恐慌。今年6月,上海警方查处两名使用AI生成视频造谣的品牌营销人员,涉案谣言包括“中山公园地铁站捅人”等。
研究显示,AI生成的经济与企业类谣言量增速高达99.91%。AI可以根据关键词快速生成仿真的新闻内容,只需简单添加时间、地点与背景音乐,数秒钟内便可完成“伪装”。
套路三:换脸诈骗与隐私窃取
AI换脸和换声技术被广泛用于诈骗与敲诈。例如,宁夏居民马某某因表哥的AI视频通话而被骗1.5万元;山东威海一居民收到利用AI生成的裸照后,被敲诈20万元。这些案件凸显了AI技术在个人隐私窃取和敲诈勒索中的滥用。
不仅如此,AI窃取隐私信息的案例也屡见不鲜。今年9月,杭州警方破获一起利用AI技术突破人脸识别系统,非法窃取个人敏感信息的案件。这种通过AI技术实施隐私窃取的行为严重威胁公民的信息安全。
套路四:克隆声音,轻松伪造对话
AI语音克隆技术门槛极低。只需获取10秒钟的声音样本,便可生成高还原度的语音模型。不法分子利用此技术,通过伪造电话、语音指令等手段进行诈骗。甚至有平台提供“一键克隆”服务,售价低廉,吸引大量非法需求。
在网络平台上,雷军、周杰伦、郭德纲等名人的AI语音模型被滥用,次数高达数十万次。此外,这些模型生成的音频可被用于伪造合同、广告、甚至是电话诈骗。
如何防范AI造假?四招保护个人信息安全
-
避免连接陌生WiFi
公共场合的免费WiFi可能是钓鱼陷阱,容易导致信息泄露。
-
警惕钓鱼链接
收到不明来源的短信或邮件时,不要轻易点击链接,以免遭遇病毒或恶意软件攻击。
-
慎扫不明二维码
二维码可能暗藏木马病毒,在扫描前务必核实来源。
-
保护个人信息
避免在社交媒体上晒含有敏感信息的内容,例如机票、身份证、位置信息等。