任何技术,都是一把双刃剑。人工智能(AI)又可能给我们带来哪些危害呢?
当前,无论是科学家、企业家、媒体,还是我们身边的其他人,一直在讨论 AI 的长期危害,比如可能让打工人丢掉饭碗、超越或取代人类的思维,甚至让人类失去对文明的控制等等。
然而,AI 给我们带来的危害,却近在眼前。而且,对大多数人而言,他们只有在亲身经历后,才知道自己也是一个受害者。
近日,“一公司老板遭遇 AI 换脸诈骗,10 分钟被骗 430 万元”的新闻一度登上了各大新闻网站的热搜。据被害人透露,诈骗人通过 AI 换脸和拟声技术,成功佯装为他的好友,然后对其进行诈骗,“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”
尽管这一事件让人们对“AI 换脸”诈骗有了更多的认识,但实际上,“AI 换脸”的例子远不止这些,直播间卖货的当红明星、一些不雅视频中的面孔等等,都可能是不法分子利用 AI 技术制造的骗局。
另外,不法分子也会在盗取他人微信账号后利用 AI 技术提取语音文件,通过转发微信语音进行诈骗。
问题是,我们在享受 AI 技术带来的便利时,该如何应对“AI 换脸”等新型诈骗?
去年 12 月,国家互联网信息办公室、工业和信息化部、公安部联合发布了《互联网信息服务深度合成管理规定》,其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
本月初,某短视频平台也发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。
上文提到的换脸直播,可能涉嫌侵犯相关明星艺人的肖像权,如果涉及直播带货等商业行为,会成为加重情节。值得注意的是,即便只是娱乐,不涉及盈利行为,只要未经肖像权人同意,换脸直播也属于侵权。
那么,就个人而言,又该如何警惕“AI 换脸”等新型诈骗呢?
5 月 24 日,中国互联网协会发文警示,“面对利用 AI 技术的新型骗局,广大公众需提高警惕,加强防范!”具体而言,我们应该做好个人信息安全第一责任人,以及在远程转账时务必进行多重验证,把好“钱袋子”。
而对行业而言,澎湃特约评论员熊志认为,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,只有 AI 换脸、AI 拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好保护每个人的信息和财产安全。
最后,如果你感觉你正在遭受或已经遭受了 AI 换脸、AI 拟声等诈骗,一定要学会用“法”打败“AI 魔法”。当然,最好的应对方法便是,选择不去相信。