Secretaría de Seguridad alerta sobre fraudes por clonación de voz con Inteligencia Artificial
La SSPC alertó sobre fraudes con Inteligencia Artificial en la que clonan voces para estafas

CIUDAD DE MÉXICO.- La Secretaría de Seguridad y Protección Ciudadana (SSPC) ha alertado sobre posibles fraudes por clonación de voz con Inteligencia Artificial (IA), por lo que ha decidido emitir una serie de recomendaciones para no ser víctima de un delito.
Como mencionó la dependencia, quien a través de su Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico ha tomado esta tarea, dicha alerta nace debido al crecimiento del uso de aplicaciones de IA.
¿Cómo se utiliza la Inteligencia Artificial para cometer fraudes con voz?
A este hecho, la SSPC afirmó que el uso cotidiano de mensajes de voz ha "abierto la posibilidad" para que, a través de ia se cometan fraudes por medio de clonar la voz de una persona, quien podría solicitar favores, los cuales generalmente suelen ser económicos.
Tales tecnologías no solo replican sonidos, sino que, para darle realismo, analizan elementos como tono, entonación y pronunciación. Teniendo en cuenta esto, si se les da un mal uso, esto abre la puerta a la suplantación de identidad y derivar en un grave riesgo a fraudes.
Te puede interesar....
¿Qué se recomienda para evitar fraudes por clonación de voz con Inteligencia Artificial?
Con base a este panorama, y con el fin de reducir el riesgo de ser víctima de algún delito, la Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico señaló:
- Mantener la calma; es importante no actuar de manera impulsiva ante la presión o la angustia del hecho, pensar con claridad permitirá identificar señales de alerta.
- Ante una solicitud de dinero por una supuesta emergencia, establece comunicación con la persona por otra vía.
- Compartir información sobre estafas con voces clonadas con IA con amigos y familiares; tener información sobre este tipo de delitos favorecerá que estén alerta y sepan cómo actuar.
- Activa la verificación de dos pasos y establece una palabra clave con familiares.
- Evitar responder las llamadas o mensajes de números desconocidos y en caso de tener que hacerlo, jamás brindar información hasta confirmar la veracidad de la fuente.
- Proteger la privacidad de la voz; evitar compartir grabaciones o mensajes de voz en redes sociales u otras plataformas públicas donde puedan ser accesibles para los ciberdelincuentes.
Por otro lado, también han puesto a disposición más material sobre seguridad en la red, cuyo material puedes revisar aquí: https://www.gob.mx/sspc/documentos/ciberguia?idiom=es
Te puede interesar....
¿Cómo funcionan los fraudes de clonación de voz por Inteligencia Artificial?
La SSPC afirmó, basada en una encuesta sobre seguridad tecnológica que: una de cada 10 personas encuestados señalaron haber recibido un mensaje de una supuesta persona,la cual era un clon de voz por IA. A esto, se indicó que el 77% dijo haber sido víctimas de fraude por medio de réplica de voz por IA.
Especialmente, esta modalidad de fraude es funcional para los delincuentes que tienen el número de teléfono de alguna persona, por lo que afirman la manera en que cometen este fraude:
registran la cuenta u otro servicio de mensajería en un dispositivo diferente, ya con acceso a la cuenta y utilizando la voz que lograron reproducir, establecen contacto con personas cercanas a la víctima para solicitar dinero urgente por una supuesta emergencia."
-
A esto, señalan que los delincuentes utilizan patrones de voz al momento de hacer estos fraudes, como son usar tonos propios de emergencia para generar angustia, para después decir que se sufrió de robo, accidente o secuestro, que termina en una urgencia de envío de dinero.
Te puede interesar....