Síguenos

Secretaría de Seguridad alerta sobre fraudes por clonación de voz con Inteligencia Artificial

Mano con celular y dibujo de persona hablando. Foto: Canva
Por:Jesús Morales

CIUDAD DE MÉXICO.- La Secretaría de Seguridad y Protección Ciudadana (SSPC) ha alertado sobre posibles fraudes por clonación de voz con Inteligencia Artificial (IA), por lo que ha decidido emitir una serie de recomendaciones para no ser víctima de un delito.

Como mencionó la dependencia, quien a través de su Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico ha tomado esta tarea, dicha alerta nace debido al crecimiento del uso de aplicaciones de IA.

¿Cómo se utiliza la Inteligencia Artificial para cometer fraudes con voz?

A este hecho, la SSPC afirmó que el uso cotidiano de mensajes de voz ha "abierto la posibilidad" para que, a través de ia se cometan fraudes por medio de clonar la voz de una persona, quien podría solicitar favores, los cuales generalmente suelen ser económicos.

Tales tecnologías no solo replican sonidos, sino que, para darle realismo, analizan elementos como tono, entonación y pronunciación. Teniendo en cuenta esto, si se les da un mal uso, esto abre la puerta a la suplantación de identidad y derivar en un grave riesgo a fraudes.

Te puede interesar....

¿Qué se recomienda para evitar fraudes por clonación de voz con Inteligencia Artificial?

Con base a este panorama, y con el fin de reducir el riesgo de ser víctima de algún delito, la Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico señaló:

Por otro lado, también han puesto a disposición más material sobre seguridad en la red, cuyo material puedes revisar aquí: https://www.gob.mx/sspc/documentos/ciberguia?idiom=es

Te puede interesar....

¿Cómo funcionan los fraudes de clonación de voz por Inteligencia Artificial?

La SSPC afirmó, basada en una encuesta sobre seguridad tecnológica que: una de cada 10 personas encuestados señalaron haber recibido un mensaje de una supuesta persona,la cual era un clon de voz por IA. A esto, se indicó que el 77% dijo haber sido víctimas de fraude por medio de réplica de voz por IA.

Especialmente, esta modalidad de fraude es funcional para los delincuentes que tienen el número de teléfono de alguna persona, por lo que afirman la manera en que cometen este fraude:

registran la cuenta u otro servicio de mensajería en un dispositivo diferente, ya con acceso a la cuenta y utilizando la voz que lograron reproducir, establecen contacto con personas cercanas a la víctima para solicitar dinero urgente por una supuesta emergencia."

-

A esto, señalan que los delincuentes utilizan patrones de voz al momento de hacer estos fraudes, como son usar tonos propios de emergencia para generar angustia, para después decir que se sufrió de robo, accidente o secuestro, que termina en una urgencia de envío de dinero.

Te puede interesar....

Síguenos en Google News

inteligencia artificialclonación de vozsecretaria de Seguridad y Protección CiudadanaIA