Mira cómo falsifican la voz de tus familiares con Inteligencia Artificial; advierten estafas

Ciudad de México, 6 de noviembre del 2023 (Macropolis QR).- La Inteligencia Artificial (IA) ha irrumpido a nivel mundial, ya que se usa desde para generar imágenes hasta ‘novias virtuales’, pero también para fines ilícitos como suplantar la identidad de las personas y realizar estafas. La Policía Cibernética de Coahuila reveló cómo le hacen los criminales para ‘clonar’ la voz de las personas, así como una serie de recomendaciones para no ser víctimas de este delito.

Las estafas mediante el uso de la IA son un fenómeno que ha encendido las alarmas en todo el mundo: en marzo del presente año, la Comisión Federal de Comercio de los Estados Unidos (FTC, por sus siglas en inglés) advirtió que los estafadores usaban este tipo de herramientas tecnológicas para hacer llamadas de “emergencias familiares”; la empresa McAfee reveló que uno de cada 10 adultos en siete países ha sido víctima de tal ilícito.

¿Cómo falsifican la voz de tus familiares con Inteligencia Artificial?

De acuerdo con la Policía Cibernética, los criminales usan videos o audios que las personas suben a distintas redes sociales (como Facebook, Instagram o TikTok), con la finalidad de introducirlas en programas de IA que ayudan a replicar la voz e incluso crear grabaciones con palabras o frases distintas a las del material original.

La clonación de voz mediante Inteligencia Artificial es un proceso que implica utilizar algoritmos y técnicas de aprendizaje automático, para recrear y sintetizar la voz de una persona, y se usa para distintas cosas”, advierte la Policía Cibernética de Coahuila.

El modus operandi que usan los criminales es el siguiente: llaman a la víctima y se hacen pasar por un familiar (en ocasiones por un amigo), para luego decir que están en una situación de peligro o riesgo (como un secuestro), por lo que se les pide una fuerte suma de dinero como ‘rescate’.

Una investigación del New York Times y compartida por la Red en Defensa de los Derechos Digitales (R3D) afirma que los falsos audios de voz (deepvoices) se pueden hacer con herramientas como Valle-E, propiedad de Microsoft, que puede generar una voz similar con tan sólo una muestra de audio de tres segundos.

¿Qué hacer para no caer en las estafas hechas con Inteligencia Artificial?

Tanto la Policía Cibernética y la Guardia Nacional enumeran una serie de recomendaciones para no caer en estafas elaboradas con IA, entre las que destacan: no contestar la llamada de números desconocidos y, en caso de ser posible, verificar el estado de familiares y/o amigos; además de mantener actualizado el dispositivo con medidas de seguridad.

La Guardia Nacional aconseja a las personas que se abstengan de compartir fotos, videos o audios que pueden ser usados para difamar; hacer un buen uso de los medios de comunicación, “verifica la autenticidad de cualquier información”, sugiere; aparte de no propagar contenido falso que genere desinformación.

En el caso de que las personas sean víctimas de un delito cibernético, a nivel nacional, pueden llamar al número 088 y así levantar una denuncia. Entre los ilícitos que también se pueden denunciar a través de este medio son el phishing -el robo de datos bancarios o personales- y el pharming, cuando criminales crean falsos portales para hurtar datos.

Síguenos en Facebook y Twitter

Loading...