
中国官媒:“AI换脸”诈骗出现涉政苗头 7/03/2023 中国官媒发文警示,“AI换脸”诈骗在中国出现涉政苗头,有不法分子利用人工智能“深度伪造”冒充领导干部行骗。 新华社下属的 《瞭望》新闻周刊星期天(7月2日)报道,中国北方某地警方近日发布一起利用“AI换脸”的诈骗案件。引人关注的是,该案不仅是一起新型网络诈骗,更是一起涉政诈骗案件。 报道称,诈骗分子在微信视频聊天中“换脸”成受害人认识的一名领导干部,并提出其朋友有一笔工程保证金需要借用受害人公司的对公账户走账。 在视频画面中,骗子“换脸”后面部表情自然,声音逼真,受害人便放松了警惕,转账后打电话确认,才知道被骗。 报道还提到另一起案例,华北某地一名地方干部近日也发现有人冒用他的名义,与他的亲朋好友大范围添加微信好友。 该干部说,“和我的亲戚朋友加完好友后,骗子还给他们打了视频电话。通话时间只有几秒钟,朋友们感觉声音、画面都有点儿像。” 该干部认为,估计下一步就要开始骗钱了,因此最近几天他连续发了好几条朋友圈提醒大家。 业内人士表示,只要有足够的图像、音频素材,不法分子就可以通过人工智能“换脸”软件、合成声音软件伪造虚拟形象,实施诈骗。而由于工作原因,一些领导干部的面部、声音等生物特征信息更易被获取,被人工智能学习利用后造成的潜在危害性也更大。 业内人士提醒社会各界提高识骗防骗意识,有关部门也应依法加大对人工智能“辅助”诈骗案件的执法力度,严肃追究相关人员法律责任。 奇安信安全专家裴智勇说,目前专业级别的人工智能“深度伪造”仍需通过较强的硬件在实验室环境实现。这意味着,近期“AI换脸”诈骗形成系统性风险的可能性不大,但仍需未雨绸缪、预防打击。 Source 语音新诈骗…只要3秒 AI就能「拷贝人声」盗你密码 联合新闻网 6/29/2023 诈骗集团只要3秒时间,就能通过AI拷贝真人声音诈骗。(示意图/ingimage) AI 技术日新月异,虽然提升了工作效率,却也成为有心人士用来诈骗 的工具。 据「太阳报」(The Sun)报导,AI风险评估公司Blackbird.AI共同创办人哈利德(Wasim Khaled)表示,目前有诈骗集团利用AI技术,拷贝他人声音进行「语音诈骗」,这种诈骗技巧称之为「AI语音拷贝人」,通常被用来窃取用户的银行资讯、身份或密码 。 …