全国人大代表雷军在建议中指出:人工智能(AI)深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域广泛兴起,成为社会喜闻乐见、传播力强、易成热点的技术应用。
但同时也看到,“AI换脸拟声”不当滥用造成了违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。
AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理带来较大挑战。
青少年对前沿技术应用好奇心强,而老年人数字素养欠缺,往往会成为“Al换脸拟声”网络陷阱锁定的主要目标,对其身心健康、财产安全以及社会稳定造成负面影响。
2024年11月,湖南长沙清水塘派出所民警接到群众线索,称一老人疑似遭遇诈骗。民警找到老人时,发现她正在与一位身着“警服”的男子视频通话。
据老人讲述,视频中对方身着警服、神情严肃,称老人涉嫌违法犯罪,需配合警方进行资金核查。见到视频中的“警察”,老人瞬间慌了神。为证清白,老人一边配合“视频笔录”,一边在纸上记下了通话内容,按照对方的指示去购买新手机、办理新卡,打算下载软件缴纳“犯罪款项”。
了解事情经过后,民警判断这是一起冒充“公检法”的诈骗,通话时骗子的声音与人物口型不吻合,应是使用了AI换脸技术。
工业和信息化部反诈专班实验室的技术人员称,经过一段时间的模型训练,一张照片可以在演示者的控制下,像真人一样做出转头、张嘴、眨眼、微笑等表情和动作。
可以要求对方用手指摁鼻子,或用其他遮挡物在脸前晃动,如画面出现类似果冻效应或者扭曲,那对方很可能正在使用AI换脸技术。
国家应急广播提醒,AI诈骗是隐私信息泄露与诈骗陷阱的结合。要加强对个人隐私的保护:不轻易提供人脸、指纹等个人生物信息;不过度公开或分享动图、视频;涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过多种途径核实确认。
不过公众也不要对AI诈骗过度恐慌,国内的科研团队、科技企业已经在研发专门针对虚假信息的检测技术,不断提升对于语音、面部合成信息的检测成功率。