La IA podría estar ayudando a aumentar el fraude a través de la clonación de voces

El número de casos de personas que reciben llamadas de un ser querido pidiendo dinero es cada vez mayor. Además, estos delitos pueden ser aún más difíciles de detectar cuando se usa inteligencia artificial para imitar una voz.

Como anticiparon muchos especialistas, la IA tiene un principal peligro: caer en las manos equivocadas. En el momento que esto suceda, todas las cualidades tecnológicas pondrían en peligro a la sociedad. Spoiler: ya sucede. 

Pero ¿cómo? Según reporta The Economist, la principal práctica que se está llevando a cabo se trata de la clonación de voces para engañar a las personas a través de llamadas telefónicas. Un fraude que se conocía pero hoy llega potenciado.

Con una muestra de voz se puede entrenar un modelo de IA y, de esta manera, este logra pronunciar cualquier texto sonando como la persona a la que imita. Henry Farid, profesor de análisis forense digital en la Universidad de California en Berkeley, explicó en diálogo con The Washington Post que el software de generación de voz por IA analiza lo que hace única la voz de una persona como, por ejemplo, la edad, el género, el acento. Con esta información busca en su base de datos voces parecidas y predice patrones.

«Hace dos años, incluso hace un año, se necesitaba una gran cantidad de audio para clonar la voz de una persona», profundizó Farid. «Ahora, si tenés una página de Facebook o si grabaste un TikTok y tu voz está ahí durante 30 segundos, la gente puede clonar”, asegura. 

Las historias sobre el fraude han comenzado a ser reportadas en diferentes diarios. Por ejemplo, el caso de Ruth Card, una mujer de 73 años recibió la llamada de, supuestamente, su nieto Brandon que le explicaba que estaba detenido y necesitaba pagar la fianza. Cuando estaban retirando el dinero, un policía les advirtió que podía tratarse de un fraude. Allí se dieron cuenta. 

También está la historia de Jennifer De Stefano. Ella recibió una llamada de su supuesta hija que le decía que había sido secuestrada por unos hombres. Afortunadamente, De Stefano logró ubicar a su hija través de sus amigas y evitó el fraude. 

Sumado a que debemos estar más atentos, muchas industrias deberán empezar a tomar medidas urgentes. The Economist afirma que una de ellas deberá ser la seguridad. Hace no mucho, la verificación de voz era un control de seguridad impagable, hoy es un peligro. 

Los actores también han comenzado a establecer derechos sobre sus voces como lo empezaron a hacer sobre sus imágenes meses atrás. Así lo afirmó Tom Hanks: “Lo veíamos venir, veíamos que iba a existir esta capacidad para coger ceros y unos dentro de un ordenador y convertirlos en una cara y un personaje”. 

El medio Xataka afirma que esta práctica de fraude no se limita a la voz, sino que ya se han registrado otros  que incluyen una videollamada con una familiar o una persona cercana. En China, según reporta The Wall Street Journal, una persona atendió la videollamada de una amigo al cual le hizo una transferencia de una alta suma de dinero a su pedido. 


Este artículo fue publicado originalmente en RED/ACCIÓN y se republica como parte del programa «Periodismo Humano», una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN.


Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios