La Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) alertó sobre un nuevo tipo de fraude telefónico en México. Este consiste en el uso de inteligencia artificial (IA) para clonar voces de familiares o amigos con el fin de engañar a las personas.
Publicidad NRT
Los estafadores obtienen fragmentos de voz de redes sociales, videos o grabaciones públicas. Luego, emplean sistemas de IA para replicar con gran precisión el tono, la entonación y la pronunciación de la persona. Con esto logran crear mensajes falsos que suenan auténticos.
TE PUEDE INTERESAR: Claudia Sheinbaum cuestiona decisión de la Corte sobre audio de Lorenzo Córdova y pide no olvidar lo ocurrido
Una vez que tienen la voz clonada, realizan llamadas simulando una emergencia, como un accidente, robo o retención. El objetivo es generar presión emocional para obtener dinero o información personal. Este método se ha vuelto más frecuente y ha generado preocupación entre autoridades y especialistas en seguridad.
Un estudio de la empresa McAfee indica que uno de cada diez encuestados ha recibido un mensaje de voz generado con IA. De ellos, el 77% perdió dinero tras ser víctima de este tipo de engaños.
Para prevenir estas estafas, la Secretaría de Seguridad y Protección Ciudadana recomienda mantener la calma y no actuar de forma impulsiva. También aconseja verificar la información mediante otra vía de contacto antes de entregar dinero o datos.
¡NRT México ya tiene aplicación! Descárgala en la App Store o Play Store para mantenerte actualizado con las noticias más importantes de Coahuila y todo México.

