海螺新闻网
最新热点新闻

马上评|AI换脸被用于诈骗,技术滥用风险在加剧

马上评|AI换脸被用于诈骗,技术滥用风险在加剧

近日,包头警方发布了一起利用AI进行电信诈骗的典型案例。福州某科技公司法人代表郭先生,10分钟内被骗430万元。案件曝光后,迅速登上热搜,引发网友广泛关注,因为借助AI变脸技术,诈骗的欺骗性太强,防不胜防。

比如骗子没有用模拟的微信来骗郭先生,而是直接用了他朋友的微信;再比如,转账前,郭先生为了确认安全,还通过视频聊天核实了身份。这意味着骗子先“俘获”了郭先生的朋友的微信,然后用AI合成了他朋友的脸和声音,骗取了郭先生的信任。

以前,涉及到转账,很多人都会像郭先生一样,先打电话或者视频确认。没想到在AI变脸技术下,看到的和听到的都不一定是真的。这就大大增强了迷惑性,客观上为作弊提供了一些便利。那么在人工智能时代,如何捍卫我们的财产安全和合法权益?

而且AI换脸技术的滥用带来的不仅仅是财产风险,还有肖像权、知识产权等领域的纠纷。之前有人用AI变脸制作明星甚至普通人的不雅视频,随意制作AI歌手,随意“点歌”,引发争议。这背后也是一条依托人工智能的地下黑色产业链。

但还是要认识到,人工智能虽然增加了防欺诈的难度,但技术本身是中性的,主要问题在于技术使用不当。像这个案例,至少有两层值得追问:第一,个人微信、人脸等隐私信息是如何泄露的?第二,骗子团伙使用的AI换脸技术服务是谁在开发和提供的?

作为个人信息的脸面,这种生物特征信息高度敏感,很多人的手机和网银支付都是靠脸解锁的。人脸信息的使用和处理应严格遵守信息保护边界,避免随意泄露给骗子可乘之机;还要明确技术使用范围,防止被滥用。

为了规范人工智能的发展,尤其是避免AI变脸带来的一系列问题,去年12月,《互联网信息服务深度融合管理规定》正式发布,明确了数据和技术管理规范。例如,授权和同意原则提到,深度合成服务提供者和技术支持者提供人脸、声音等生物特征信息编辑功能的,“应当提示深度合成服务的使用者依法告知被编辑的个人,并取得其单独同意”。

简单来说,这些技术服务公司不可能用普通人的脸随便变脸。他们必须得到他们的同意。变脸不是他们想变的,也不是骗子有钱就能随便变的。如果深挖这个案件,不排除是一个非法使用人工智能技术的黑色产业链。

当然,人工智能的发展仍然是一个快速发展的领域,规则的完善还需要时间。但无论如何,这个案例提醒我们,技术滥用的风险,对普通人的安全风险和威胁,绝不能低估。

对于大众来说,在人工智能时代,我们要提高警惕,不要随意泄露个人信息,需要转账的时候更要仔细核实。对于行业来说,需要尽快建立法规,明确信息保护红线,加强对技术服务商行为的规范引导,等等。只有当AI变脸,AI拟声词等。在每个环节都有据可查,严格授权,诈骗难度提高,大家的信息和财产安全才能得到更好的保护。

责任编辑:王磊图片编辑:李晶昀校对:张艳

赞(0)
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《马上评|AI换脸被用于诈骗,技术滥用风险在加剧》
文章链接:https://sourceopen.com.cn/6361.html

本站新闻文章由机器人程序自动发布,新闻内容具有时效性,仅供参考,不具备权威性,所有内容来源于互联网,并非官方发布信息,其真实性自行判断,不代表本站观点,如有侵权,误报,违法等不良信息,请联系删除.资源型信息仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

相关推荐