今天,很高兴为大家分享来自经济参考报的中国互联网协会:警惕“AI换脸”新骗局,如果您对中国互联网协会:警惕“AI换脸”新骗局感兴趣,请往下看。
今年以来,ChatGPT和GPT-4等技术的应用,成为信息科技领域的热点,引起公众对AI技术的广泛关注和热情。但伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。
近期,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信网络诈骗的案件。不法分子利用AI技术,通过声音合成,伪造成特定人物的声音,通过AI换脸,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。
因此,中国互联网协会提示,面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。首要,要加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。
其次,陌生链接不要点、陌生软件不要下载、陌生好友不要随便加、不明二维码不要随便扫。管理好自己的朋友圈,不要向陌生人开启手机屏幕共享。
再次,做好个人防护,安装安全软件,防止手机和电脑中病毒;对个人账户的安全状况保持警惕,尤其是陌生设备的登陆情况,防止微信、QQ等被盗号给亲朋好友带来麻烦。对于不常用的App,建议卸载前注销个人帐号。
与此同时,远程转账务必多重验证,把好“钱袋子”。如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游需要帮忙买机票”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕。
中国互联网协会提示,在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。
好了,关于中国互联网协会:警惕“AI换脸”新骗局就讲到这。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。