首页>>以案说法>>以案说法
以案说法

以案说法

3·15来临之际:聊聊AI带来的消费乱象,诈骗咋应对?

时间:2025-06-07 19:16 作者:佚名 【转载】

东莞谢岗律师获悉

“作恶”的人工智能还要人来治

有点数·数字经济工作室原创

作 ? 者 |?有 叔

微信ID |

一位广为人知的艺人于短视频平台上探讨教育议题,未曾预料地开始了产品推广:“自幼给孩子饮用某某品牌奶粉,既聪明又健壮。”尽管其面部表情与口型略显不协调,然而其嗓音却惊人地相似。经过一番仔细分辨,人们才意识到这竟然是“AI换脸与声音合成”技术的杰作。

随着人工智能技术的不断进步与更新,它不仅极大地便利了我们的工作和日常生活,却也为不法分子提供了可乘之机。诸如“AI换脸拟声”的诈骗案件以及侵权事件频发。在今年的3·15国际消费者权益日即将到来之时,让我们来探讨一下人工智能引发的消费领域乱象。

当诈骗与AI技术结合,应该如何应对?

“张文宏”正直播带货?AI助长了“信息蝗灾”

著名传染病领域的权威专家张文宏,在深夜时段变身成为直播带货的主播,热情地向观众大力推荐一款特定品牌的蛋白棒。

近期,一位名为“张文宏”的医生在一段视频中大力推荐了一种蛋白棒,此言一出,众多网友纷纷相信,该产品一时之间销量激增至1200件。

面对这种公然侵犯版权的行为,张文宏迅速作出反应,指出视频系人工智能合成:“一发现此事,我便立刻对那个合成视频提出了投诉。然而,类似销售账号并非仅有,它们还在不断更迭。尽管我多次向平台提出投诉,但侵权行为却始终未得到有效遏制。最终,我自身也感到力不从心。”

在这种直播活动中,工作人员借助人工智能技术,模仿张文宏的形象与嗓音,稍作编造对话,便能让那些不知名、以次充好乃至假冒伪劣的商品迅速销售一空。一旦骗局被识破,他们便会重新开设账号,继续进行直播销售。

这些虚假的人工智能生成内容如同蝗虫之灾,屡次出现,犹如天空中飞舞的蝗虫一般,对人造成伤害。众多对真相一无所知的大众,尤其是那些对人工智能不太了解、年纪较大的市民,往往容易上当受骗。目前,涉事视频已被发布账号删除,并且该账号已被平台永久封禁。张文宏除了向平台提出投诉之外,还思考着向警方寻求帮助,然而由于对方无法被直接感知,频繁更换账号,要确定确切的报警对象实属不易。

《2024人工智能安全报告》揭示,2023年AI深度伪造欺诈案件数量剧增,增幅高达3000%。AI合成视频正逐渐沦为某些人操控舆论、谋取私利的手段。原本在AI合成视频中看似的优势,如难以察觉、无法触摸、却与真实相符等,却转而不断冲击着人们“眼见为实”的信念底线,对消费者的合法权益造成侵害。

张文宏并非唯一,众多知名人士,例如教育领域的李玫瑾专家、影视界的刘德华和靳东等,均在不同平台上对“AI换脸拟声”技术提出了加强监管的呼声。今年两会期间,全国人大代表雷军所提出的建议中,也有针对“AI换脸拟声”违法侵权问题的治理措施。

不管马云还是靳东,AI都能换脸拟声

消费者轻信了“AI换脸拟声”的直播推销,结果购买了假劣商品,其合法权益受到了损害。然而,更令人担忧的是,这种利用人工智能技术实施的诈骗行为。据媒体报道,有人通过社交平台利用AI技术将脸换成了马云的模样,通过视频通话骗取了网友的信任,受害者主要是对AI技术不太了解的中老年人。随后,他们以“扶贫项目”等名义骗取了钱财。有人在视频网站假冒靳东的形象,与老年人群互动,声称自己需要资金拍摄影视作品,借此诱导他们进行转账操作。

冒充公众人物固然令人警惕,但更令人防不胜防的是,一些不法分子竟利用AI技术模仿你身边亲近的人。以天津警方曝光的一起AI诈骗案为例,市民李先生就遭遇了这样的骗局。他接到一条短信,对方伪装成李先生单位的领导,主动要求通过社交软件进行深入交流。在成为好友后,对方以急需资金周转为由,诱使李先生进行转账,并承诺事后会如数归还。对方主动拨通了视频通话。画面中显现的正是“领导”的身影,李先生立刻消除了警惕,分三次向对方转账共计95万元。当天午后,李先生在与友人交谈时提及此事,越想越觉得情况可疑,随即选择了报警。

接到报警信息后,天津警方立即启动了与银行的协同机制,迅速对三张涉事银行卡实施了紧急的冻结措施。银行方面成功地将涉案资金83万元予以冻结。民警透露,犯罪分子运用人工智能技术,将他人的面部特征替换为成熟人或亲属的面容,假扮成诈骗对象的关键联系人,通过制作出看似真实的视频或照片来实施诈骗。

香港警方曾经公开透露了一起涉及多人使用“AI换脸”技术的诈骗案件,该案涉案金额竟高达2亿港元。据央视新闻报道,一名跨国公司香港分部的员工应总部首席财务官的邀请,参加了由其发起的“多人视频会议”。在会议过程中,该员工遵照指示,分15次将2亿港元分别转入了5个不同的本地银行账户。然而,直到后来向总部询问,他才发现自己已经上当受骗。经警方调查发现,在该起涉嫌视频会议的案件中,所谓的会议参与者中,唯有受害者本人是真实存在的,而其他所谓的与会者实际上均是通过AI换脸技术伪装的骗子。

与AI换脸视频相较,AI合成的语音在诈骗活动中更难以识别。根据全球知名安全技术企业迈克菲发布的调查报告,仅需3至4秒的音频片段,网络上的免费AI工具便能制作出与真实人声相似度高达85%的克隆声音。在参与调查的超过7000名全球受访者中,有高达70%的人对于能否辨别出AI合成的语音感到不确定,并且大约有10%的人曾遭遇过利用AI语音进行的诈骗。

在社交媒体平台上,众多海外学子纷纷留言,透露自己遭遇过不法分子运用人工智能技术伪造其声音,对国内的亲人实施诈骗。此类诈骗行为以绑架为幌子,播放由AI合成的求救录音,并利用时差优势,在制造恐慌情绪的同时,骗取了巨额资金。

预防信息泄露,用心识破AI骗局

观察上述案例,我们可以明显发现,人工智能既是一把利剑,也是一把双刃。具体到各个细分行业,越来越多的金融机构开始运用人工智能技术来提供客户服务,然而这也为不法分子提供了可乘之机。一些消费者甚至接到了假冒保险公司客服的电话,对方要求他们提供银行卡信息并缴纳所谓的“续期保费”,最终导致财产被骗。在这背后,是一些不法分子借助人工智能技术,模仿保险公司客服人员的语音或聊天机器人的对话方式,通过电话与消费者取得联系,诱使他们透露个人隐私信息。

谈及此,我们注意到目前运用人工智能技术的欺诈手法正变得越来越容易入门,且其仿真度也在不断提升。那么,针对这些AI新型诈骗的多种情形,我们究竟该如何增强警惕心理和应对技巧呢?

AI在技术层面确实可以实现换脸和拟音功能,然而,若要实施诈骗,首要任务是搜集目标人物的个人信息、众多人脸图像以及语音资料谢岗镇律师,并利用AI技术制作出逼真的音视频内容;同时,还需盗取目标人物在社交软件上的账号;此外,还需掌握诈骗目标者的详细信息,了解其社会关系网。这则事实警示我们,务必提高对个人隐私保护的警觉性,切勿在社交媒体上泄露含有姓名、身份证号码、手机号码等敏感信息的机票、证件、照片等图片,同时也要谨慎,不要随意向他人透露人脸、指纹等生物特征信息。

针对那些假冒名人进行网络营销或制造虚假信息的,我们该如何分辨,又如何区分AI换脸、变声技术呢?业内专家指出,首先东莞谢岗律师,可以通过观察面部特征、表情和动作,以及声音与口型的协调程度来进行判断;其次,还需要核实信息的出处,让当事人遮挡面部或做出其他面部动作,以此来判断画面是否流畅自然。

AI制作的视频常常在面部细节处理上显现出较为明显的不足:无法捕捉到细微的表情变化(例如眼角的细纹、嘴角的不自主抽动等)、光影效果不协调(轮廓与阴影的过渡与光线反射规律不符)、皮肤质感过于平滑(缺少毛孔、纹理和瑕疵)。在眼神和表情的表达上,眼球的活动显得机械(转动不连贯、眨眼频率异常),面部表情显得呆板(转换显得生硬、笑容缺乏自然感)。

尽管声音克隆技术在近期有了显著的提升,其效果几乎可以以假乱真。细心聆听会发现,由AI创造的语音往往更为顺滑,说话速度也更快,而且很少包含诸如“嗯”、“额”或“也就是说”之类的语气词或停顿。尽管如此,听多了之后,人们还是能够辨别出这些声音是由AI生成的。

结 ?语

面对AI领域的种种乱象,消费者需加强防范意识,与此同时,政府部门的监管工作亦需迅速跟进、高效推进。我国已陆续出台了《生成式人工智能服务管理暂行办法》以及《互联网信息服务深度合成管理规定》等一系列法律法规,旨在对AI技术的应用进行规范化管理。

要使AI技术真正服务于民众,加强监管和增强公众的警惕性是至关重要的。必须持续增加违法诈骗的代价和难度,同时强化人们对真伪的辨识能力,这样才能有效防止AI技术被用作行骗手段。

谢岗镇律师?敬请于评论区发表高见,并对本文予以点赞及转发,以助广大读者把握法律与正义的界限。

技术支持: 建站ABC | 管理登录