(资料图片)
朋友打来视频电话借钱,你还会怀疑对方身份的真实性吗?据媒体报道,今年4月,福州市郭先生的好友突然通过视频电话联系他,想通过郭先生公司账户走账430万元。由于通过视频聊天已“确认”了朋友身份,郭先生便放心转账。事后,郭先生通过和好友沟通才得知自己被骗,原来对方竟通过AI换脸和拟声技术,佯装好友对其实施了诈骗。(6月8日《工人日报》)
“AI诈骗”是一种利用智能AI技术实施诈骗的诈骗手段。近年来,利用“AI换脸”和“AI拟声”技术实施诈骗的案例,并非福州郭先生首例。比如:2022年2月,浙江温州市公安局瓯海分局接到一位陈先生报案,称自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象一步步实施诈骗。再如:今年4月27日,在安徽安庆经开区发生一起“冒充熟人”诈骗案,经开区公安分局反诈中心民警调查发现,诈骗分子使用了一段9秒钟的智能AI换脸视频佯装“熟人”,让受害人放松警惕骗走245万元。这说明,“AI诈骗”已成为一种新的诈骗手段。
据了解,“AI诈骗”不仅骗法新,而且很容易得手。很多受骗者根本没有戒备之心,总以为视频画面中“有图有声”假不了,把钱款直接转入了骗子的微信里,让人“防不胜防”。
那么,如何防范“AI诈骗”呢?笔者以为,还需有更多“好办法”。
首先,市民要提高警惕。市民一旦遇到“熟人”或“好友”利用微信视频借钱,就应提高警惕,要考虑到对方是否利用“AI换脸”“AI拟声”技术实施诈骗。在涉及钱款时,要提高安全意识,通过电话、见面等方式确认对方的真实身份。也可以选择向对方银行汇款,避免通过微信等社交工具转账;同时好,要加强个人信息保护意识,以防骗子利用AI技术掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。
其次,技防部门要提供技防加持。一方面,技防部门应持续AI反诈技术的研究,建立健全技术手段,把人工智能技术运用到预防打击电信网络诈骗工作中。另一方面,技防部门应给广大市民科普一些必要的“AI换脸”“AI拟声”技术的识别知识,通过简单的识别技术帮助市民轻松确认是否有诈,以防“AI诈骗”。
其三,立法要跟上。一方面,立法部门应加快对“AI”技术的运用进行立法规制,不妨对人工智能设备和软件的使用和注册进行明确限制,防止“AI”技术的运用“无序化”“无法化”,而给诈骗分子有了利用“AI诈骗”的可乘之机。另一方面,不妨通过制定专门性法律法规,深化个人信息保护制度,比如:人脸识别应用场景的限制、人脸识别后的个人信息保护等,均需立法规制,立法保护,严防不法分子利用法律漏洞获取公民个人信息,从而利用“AI换脸”“AI拟声”等技术实施诈骗。
此外,还有一点也很重要,那就是对“AI诈骗”分子的严惩重处,不妨通过高额罚单、列入“黑名单”、追究刑责等处罚手段,让诈骗分子既付出“经济代价”,又付出“诚信代价”,更付出“法律代价”,倒逼其遵规守法,自觉远离“AI诈骗”。
俗话说:“魔高一尺,道高一丈。”笔者相信,只要通过提高警惕、技防加持、立法保护,以及严惩重处等一系列有效的防范好办法,诈骗分子利用“AI”的诈骗技术再高明,也一定能被识破、被戳穿。如此,“AI诈骗”也就难以得逞。
Copyright @ 2008-2015 www.news9.com.cn All Rights Reserved 中国投资网 版权所有 关于我们
浙ICP备2022016517号-5
免责声明:本文仅代表作者观点,网站刊登本文出于传递更多信息的目的,并不意味赞同其观点或证实其描述。如因文章内容、版权请联系qq邮箱:514 676 113@qq.com