Estafas con inteligencia artificial: alertan ante un nuevo método de engaño

Especialistas alertan sobre la Inteligencia Artificial, ya que es una herramienta que también utilizan los estafadores. Mirá cómo tenés qué actuar.  

La ciberdelincuencia es conocida por reinventarse constantemente y descubrir nuevos métodos para continuar realizando estafas. Recientemente, especialistas descubrieron una nueva modalidad donde las víctimas perjudicadas terminan perdiendo todos sus ahorros.

En el marco de las nuevas tecnologías, la Inteligencia Artificial (IA) como el ChatGPT, parece ser una herramienta que se está usando cada vez más en diferentes rubros.

Si bien la suplantación de identidad haciéndose pasar por un familiar o amigo es muy común en el mundo de los engaños, ahora la técnica se sofisticó con el avance de esta tecnología.

Ciberdelito con IA: cómo funciona


En esta ocasión se usa una IA para replicar la voz de las personas. Los delincuentes se hacen pasar por un «conocido» que pide con un tono desesperado y alarmante un pago urgente en criptomonedas o tarjetas de regalo para luego evitar ser identificados por sus víctimas.

La Inteligencia Artificial que utilizan los hackers tiene la función de recrear los tonos de voz de una persona. En ese sentido, los ciberdelincuentes toman un fragmento de voz de cualquier video que está publicado en redes sociales y el software termina de estudiar el audio enviado.

Cómo protegerse de estafas virtuales


El Banco Central de la República Argentina tiene una serie de recomendaciones para evitar estafas virtuales.

Activar la autenticidad de dos factores en cuentas de redes sociales y WhatsApp o las plataformas digitales que utilices.

No brindar ningún dato personal (usuarios, claves, contraseñas, etc.)

Leer cada correo electrónico recibido con cuidado.

– Tener cuidado con los enlaces sospechosos y asegurarse siempre de estar en la página legítima antes de ingresar información de inicio de sesión.

– Siempre hay que tomarse un minuto antes de actuar. Quienes realizan este tipo de estafas apelan a las emociones, descuidos y urgencias.

Por otro lado, hay que destacar que si bien los audios generados por la Inteligencia Artificial son bastante precisos, las personas cuentan con la ventaja de conocer muy bien a la supuesta persona a la que se imita.

En ese sentido, uno puede identificar ciertas rasgos del habla que no corresponden con nuestro familiar o conocido.


Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios