还有假视频通话!中国互联网协会:谨防AI换脸新骗局,有人被骗430万

点开直播间一看,卖家居然是一位当红女演员。 仔细一看,这位“明星”其实是一位使用人工智能(AI)实时换脸技术的普通主播。 他们冒充名人,只是为了增加卖点,帮助推销商品……

近来,“AI换脸”的应用范围越来越广,但存在滥用嫌疑。 甚至有人利用AI换脸进行犯罪,比如伪造不雅视频、换脸诈骗等。 前不久,一名男子因AI“偷脸”,10分钟被骗430万元。

5月24日,中国互联网协会发布公告称,面对利用人工智能技术的新型诈骗,需广大公众提高警惕,加强防范。

公司老板遭遇AI换脸诈骗

10分钟430万元被骗

近日,内蒙古包头警方发布了一起利用人工智能进行电信诈骗的典型案件。

福建人郭先生是一家科技公司的法定代表人。 今年4月,他的朋友突然通过微信视频联系他,称朋友在外地竞标,需要430万元押金,想借用郭先生公司的账户提取这笔钱。

基于对朋友的信任以及通过视频聊天“验证”其身份,郭先生在10分钟内分两笔交易将430万元转入对方银行账户。

随后,郭先生给朋友打电话才发现自己被骗了。 原来,骗子利用AI换脸和拟声词技术冒充朋友对其进行诈骗。 “当时视频是给我播放的,我也确认了视频中的面孔和声音,所以我放松了警惕。” 郭先生事后说道。

AI换脸冒充明星带货

律师:或涉嫌侵权

除了冒充“熟人脸”进行诈骗外,AI换脸也可能出现在直播中。 最近,网络上出现了一些“换脸直播”教程。 教程的发布者声称,实时换脸软件可以帮助用户轻松“换脸”,对吸引流量和销售商品有很大帮助。

在一段展示换脸直播效果的视频中,用户将名为“成龙”的模特加载到相关软件后,镜头前的人与直播画面中的成龙有着相似的面部特征,但脸型和发型保持不变。 照原样。

记者发现,当用户倾斜头部或改变表情时,五官会自然流畅地切换。 只有手掌在脸上划过的时候,才出现了明显的破绽。

图片[1]-还有假视频通话!中国互联网协会:谨防AI换脸新骗局,有人被骗430万-首码网-网上创业赚钱首码项目发布推广平台

发布者展示变脸成“成龙”的实时效果和软件界面(视频截图)

北京悦诚律师事务所高级合伙人岳其山表示,用于公开传播的换脸直播可能涉嫌侵犯相关明星艺人的肖像权。 如果涉及直播、送货等商业行为,就会成为加重情节。

岳启山解释说,只要在直播过程中未经肖像权人同意,通过技术手段将自己的脸替换成名人的脸,就构成对名人肖像的侵犯。 根据具体情况,后果可能会有所不同。 即使只是为了娱乐,不涉及营利行为,也是侵权。 如果利用明星肖像进行直播带货,属于商业行为,肯定会在赔偿金额中予以考虑。 如果主观性质恶性、过错程度较大,并且获利的话,赔偿数额可能会更高。

记者注意到,一些使用换脸技术的直播不会直接提及相关明星的名字,但也不会主动表态或否认。 岳启山认为,该行为涉嫌欺诈或虚假宣传,使公众误认为明星带货。 如果产品本身质量不好,或者主播在配送过程中的言论或行为导致对被改脸的明星产生负面舆论,明星可以主张名誉权侵权责任。

人工智能技术面临滥用风险

注意预防措施

为规范人工智能发展,去年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规定。 其中提到,深度合成服务提供者应当添加不影响使用其服务生成、编辑的信息内容使用的标识。 提供智能对话、合成人声、人脸生成、沉浸式现实场景等产生或者显着改变信息内容功能的服务,应当显着标识,避免公众混淆或者误认。

近期,一些平台和企业还发布了《人工智能生成内容平台规范及行业倡议》,明确禁止利用人工智能生成技术创作、发布侵权内容,包括但不限于肖像权、知识产权等。产权等,一经发现,平台将严厉处罚。

对于个人而言,除了在各类“明星面孔”中保持清醒,避免陷入虚假宣传之外,面对翻新的AI诈骗,更重要的是保持防范意识。

中国互联网协会提醒我们,做个人信息安全的第一责任人。 强化个人信息保护意识,防止信息泄露,不轻易向他人提供人脸、指纹等个人生物识别信息; 不轻易泄露您的身份证、银行卡、验证码等信息; 等等直接存储在手机中。

其次,不要点击不熟悉的链接,不要下载不熟悉的软件,不要随便添加不熟悉的好友,不要随便扫描未知的二维码。 管理好自己的朋友圈,不要向陌生人开放手机屏幕共享。

同时,做好个人防护,安装安全软件,防范手机、电脑病毒; 保持对个人账户安全状态特别是陌生设备登录状态的警惕,防止微信、QQ等被盗给亲友带来麻烦。 对于不常用的应用,建议卸载前先退出个人账户。

此外,远程转账必须经过多次验证才能保住“钱袋子”。 如果有人通过社交软件、短信、电子邮件等自称是“家人”、“朋友”、“老师”、“领导”,“手机掉水里,学校需要交学费” “急补补习班”“出国旅游需要帮忙买机票”诱导你转账的方式和理由多种多样,比如“领导个人事务紧急转账”“万一需要立即手术”发生车祸”、“特殊情况,需要借过桥资金”等,一定要第一时间提高警惕。

中国互联网协会表示,人工智能时代,文本、声音、图像、视频可能会深度合成。 在转账、汇款、资金往来等典型场景中,需要对回拨对方手机号码等额外通信方式进行验证和确认。 无论收款人是谁,都可以使用单一通信渠道进行无需验证的直接转账和汇款。

如果您不慎被骗或遇到可疑情况,请保护好证据,立即拨打96110报警。

修正AI换脸

用“法”战胜“魔法”

“短短10分钟,就被骗了430万元”、“变脸冒充当红女星带货,赚大钱”……这样的“变脸”手法和拟声词防不胜防。 所有这些都表明,换脸技术的滥用已经对公共利益构成了威胁。

纠正AI换脸,要用“法”战胜“魔法”。

这个规律就是方法和方法的规律。 有人说,防止欺诈最有效的方法就是不相信。 无论对方如何“变通”、变通、花招欺骗,都是“不听不信、不转账”。 最重要的是优化“打法”,升级招数,用更有效的方法“破防”。 “法的高度是一尺,路的高度是一尺”,面对诈骗者的新花样,我们必须优化我们的反诈骗技术和反诈骗方法,总结有效的好方法,并做好宣传普及,构建反诈骗防骗民族战线。

该法也是法规法、法律法。 此前,一款以AI换脸为特色的应用很受欢迎,“一张照片,就能玩遍全世界”。 但很快,在接受监管部门约谈后,该应用被下架,原因很简单,这种换脸行为侵犯了公民的肖像权。 去年12月,《互联网信息服务深度合成管理规定》发布,对人脸的生成、替换、操纵以及人声、仿声的合成等都有明确的限制。 显然,随着制度设计越来越精细、相关立法越来越完善,AI换脸的空间将会越来越狭窄。

AI换脸技术的滥用也促使大家思考一个深层次的问题。 新技术不断涌现,给人们带来便利,但也可能被别有用心的人非法利用。 虽然人们不能因为噎住而停止进食,但也不能忽视它的双刃剑效应。 如果没有应有的监管,AI换脸可能会打开潘多拉魔盒。 我们应该因势利导,趋利避害。 这是我们应该尽力去做的。

来源:综合央视新闻微信公众号(ID:cctvnewscenter)、中国之声、澎湃新闻

© 版权声明
THE END
喜欢就支持一下吧
赞赏 分享