AI换脸
通过AI人工智能技术把别人的脸换成自己的脸
AI换脸,科技术语,是指通过AI人工智能技术,把别人的脸换成自己的脸。AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。
技术介绍
AI换脸脸部表情自然,效果逼真,整个过程你只需要通过一张照片,然后用AI技术可以在ZAO软件上使用自己的照片替影视剧或者小视频中的人物,从而生成以自己为主角的视频。
相关事件
2023年3月7日,据美国“截击”网站报道,美军特种作战司令部正计划利用“深度伪造”等技术,开发新一代“军事信息支持作战”工具,新技术将被用于数字欺骗、通信干扰及制造传播虚假信息等活动。深度伪造技术常见的方式有AI换脸、语音模拟、视频生成等。
2023年6月14-16日,中国互联网协会将组织举办“2023年电信网络诈骗治理工作培训”,解读电信网络诈骗治理法律法规,分析研判电信网络诈骗治理的重点工作和发展形势,助力企业落实防范治理电信网络诈骗责任,提高管理能力,促进行业健康发展。
2023年5月,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例:2023年4月,福建一家科技公司的法人代表郭先生被骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
2023年5月22日,AI换脸诈骗事件再次发生。安徽一男子9秒被骗132万。
2023年6月,浙江省杭州市萧山区检察院对一起利用“AI换脸”技术侵犯公民个人信息案,依法向杭州互联网法院提起民事公益诉讼。
2023年8月10日消息,为防范和打击此类新型犯罪,公安机关联合国家重点实验室等单位,开展人脸识别与活体检测技术安全测评,覆盖了境内用户量大、问题隐患突出的即时通讯、网络直播、网络社交、电商平台、金融支付等重点APP,及时发现人脸识别验证系统存在的风险隐患,通报运营主体升级安全保护措施和人脸识别算法。同时依托“净网”专项行动,组织专项会战,严打泄露身份证照片等图像信息的犯罪源头,破获“AI换脸”案件79起,抓获犯罪嫌疑人515名,有效遏制了该类犯罪势头。
2024年5月消息,辽宁网安部门接到群众报案,称自己的银行账户里少了三千块钱,还多了几笔向陌生账户转账的记录。接到线索后,辽宁网警迅速开展工作。经过几个月的持续侦查,一个以AI技术为支撑的犯罪团伙浮出水面。该犯罪团伙以任某某为头目,4名“信息员”、“联络员”为骨干成员,另有27名“辅助人员”进行支撑。经查,该团伙非法收购公民面部照片50余个,银行卡、电话卡100余张,帮助境外电诈犯罪分子洗钱流水7000万元并从中非法获利。
2024年6月20日,北京互联网法院一审开庭宣判了两起北京市首例“AI换脸”软件侵权案件,认定使用他人视频“换脸”后制作模板再提供“换脸”服务的网络服务提供者侵害了他人的个人信息权益。
2024年12月,广州互联网法院就审结了一起由“AI换脸”视频合成模板引发的侵权纠纷。一位知名短视频博主发现自己的汉服装扮视频被某科技公司擅自制成了付费“AI换脸”模板。法院审理后认定,该公司的行为侵犯了博主的肖像权。
社会危害
2023年5月24日,中国互联网协会发文提示“AI换脸”新骗局。今年以来,ChatGPT和GPT-4等技术的应用,成为了信息科技领域的热点,引起公众对AI技术的广泛关注和热情。但伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。
近期,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信网络诈骗的案件。不法分子利用AI技术,通过声音合成,伪造成特定人物的声音,通过AI换脸,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。
面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。
一、做好个人信息安全第一责任人
1、加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。
提示:发现APP过度、强制收集个人信息,请至12321.cn投诉。
2、陌生链接不要点、陌生软件不要下载、陌生好友不要随便加、不明二维码不要随便扫。管理好自己的朋友圈,不要向陌生人开启手机屏幕共享。
3、做好个人防护,安装安全软件,防止手机和电脑中病毒;对个人账户的安全状况保持警惕,尤其是陌生设备的登陆情况,防止微信、QQ等被盗号给亲朋好友带来麻烦。
4、对于不常用的APP,建议卸载前注销个人账号。
提示:APP不提供个人账号注销方式,或为注销账号设置各类障碍的,请至12321.cn投诉。
二、远程转账务必多重验证,把好“钱袋子”
如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游需要帮忙买机票”“给领导办私事需紧急转账”“遭遇车祸需要马上手术”“情况特殊,需要过桥资金拆借”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕。在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款!无论对方是谁!
提示:遭遇诈骗信息,请至12321.cn反诈专栏举报,如发生资金损失请及时报警。
一直以来,中国互联网协会不断推进行业自律,积极开展防范治理电信网络诈骗工作。2023年6月14-16日,中国互联网协会将组织举办“2023年电信网络诈骗治理工作培训”,解读电信网络诈骗治理法律法规,分析研判电信网络诈骗治理的重点工作和发展形势,助力企业落实防范治理电信网络诈骗责任,提高管理能力,促进行业健康发展。
央视曝光
2024年3月15日,2024年中央广播电视总台3·15晚会曝光了AI换脸诈骗的现象,在视频中穿插了一段对“AI换脸”的科普,实际上,视频通话AI换脸诈骗已经不是什么稀罕事了,为了更好地防诈骗,大家在怀疑对方换脸时可以让对方摸脸、按鼻子等,这样可以更容易地识别AI换脸视频。此外,AI换脸、变声功能虽然看起来很强,但诈骗分子由于训练数据不足、技术能力欠缺等硬伤,基本都会在几秒钟后挂断视频/电话。
2024年6月消息,深圳市民吴先生突然收到一个陌生手机号码发来的彩信,点开一看竟然是他和一名陌生女子在酒店房间内的不雅照片。深圳警方接到报案后,立即对吴先生提供的线索进行侦查。通过梳理报案记录,警方发现全市有同样遭遇的不止吴先生一人,犯罪嫌疑人的敲诈勒索方式都如出一辙。于是警方立即对相似的案件进行串并处理。调查后,一个通过换脸技术合成不雅照,实施敲诈勒索的犯罪团伙逐渐浮出水面。
随着侦查工作的深入,警方发现这是一个以王某为首的犯罪团伙,团伙内分工明确,有人负责修图,有人负责寻找作案目标,有人负责发短信打电话联系收款。深圳坪山警方兵分多路,展开统一收网行动,在多地警方协助下成功抓获以王某为首的十多名犯罪嫌疑人。,王某等人已被检察机关提起公诉。案件正在进一步审理当中。
警方提醒
随着人工智能技术的迅速发展,有些人利用这项技术的犯罪手段也越来越科技化。利用“AI换脸”进行违法犯罪的行为屡见不鲜。警方提醒大众,不要在互联网上过多暴露自己的个人信息,包括照片、视频、语音等信息。对外提供人脸照片时,需要慎之又慎,特别是在互联网上使用小众软件进行身份认证时,在开启定位服务、输入身份证号码、录入指纹信息、录入人脸信息的时候,需要慎之又慎。
专家提示
AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。“如有必要可以要求对方做快速地抬头、点头、转头的动作,进一步判断视频是否有异常的细节,来确认这个视频是真实的。”
注意事项
不要公布手持身份证或手持白纸照
这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。
不要发布各种票据类的照片‍
很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。
不要晒家门钥匙、车牌等照片‍
不法者通过技术手段,可以分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。
最新修订时间:2024-12-15 14:19
目录
概述
技术介绍
相关事件
参考资料