国家金融监管总局:警惕利用AI新型技术实施诈骗
时间:2023-10-13 23:10:32来自:证券时报网字号:T  T

国家金融监管总局发布关于警惕利用AI新型技术实施诈骗的风险提示,当前,AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,也给网络诈骗带来可乘之机。如不法分子通过面部替换、语音合成等方式,制作虚假图像、音频、视频,仿冒他人身份实施诈骗,侵害消费者合法权益。国家金融监督管理总局发布消费者权益保护风险提示,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。

利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。

  • 浏览记录
  • 我的关注
  • 涨幅
  • 跌幅
  • 振幅
  • 换手率
loading...
  • 涨幅
  • 跌幅
  • 振幅
  • 换手率
loading...
本站郑重声明:所载数据、文章仅供参考,使用前请核实,风险自负。
© 2008 北京济安金信科技有限公司 北京合富永道财经文化传媒有限公司
京ICP备12044478号 版权所有 复制必究
本站由 北京济安金信科技有限公司 提供技术支持