ChatGPT vs. “Dark Chat GPT”: la batalla por tu seguridad y tus bolsillos
Todos conocemos a ChatGPT, el prodigio de OpenAI. Esa inteligencia artificial que te ayuda a redactar correos, escribir poesía o explicar conceptos complejos. Su poder reside en sus barreras éticas: está programada para negarse a generar contenido dañino, ilegal o sesgado. Si le pides una receta para explosivos, te dirá “lo siento, no puedo ayudarte con eso”. Si intentas que te dé instrucciones para un fraude, se negará. Es tu asistente, con una brújula moral digital incorporada.
Pero, ¿qué sucede cuando esa brújula se rompe o se arranca de raíz?
Ahí nace el concepto de “Dark Chat GPT”, el lado oscuro de la inteligencia artificial. Este término engloba a modelos de lenguaje que han sido manipulados, modificados o directamente creados para fines criminales. A diferencia de ChatGPT, que protege al usuario, estas versiones oscuras están diseñadas para explotar vulnerabilidades humanas y tecnológicas. Son herramientas de ataque, no de asistencia.
¿Qué es el “Dark Chat GPT”?
El término abarca tres grandes categorías:
Modelos Jailbreakeados: Son versiones de ChatGPT que han sido “hackeadas” o “engañadas” para ignorar sus propias reglas. Se convierten en asistentes obedientes para cualquier orden, por más peligrosa que sea. Es como quitarle los frenos a un coche de carreras.
WormGPT y FraudGPT: Estas no son simples modificaciones. Son inteligencias artificiales creadas desde cero o profundamente alteradas para fines delictivos. Se venden en la dark web como herramientas de ciberataque. No tienen ética ni remordimientos: solo buscan el éxito del delito.
Cómo opera el infierno digital: Ejemplos reales del “Dark Chat GPT”
Phishing y BEC: El arte del engaño hiperrealista
- Antes: Correos mal escritos, con errores evidentes y diseño sospechoso.
- Ahora: Emails impecables, con el tono exacto de tu jefe, tu banco o un ser querido. La IA analiza miles de correos reales y genera imitaciones perfectas. El resultado: mensajes tan convincentes que podrías transferir dinero sin dudarlo.
Malware a la carta: Código malicioso generado por IA
- Antes: Crear un virus requería conocimientos avanzados.
- Ahora: Cualquiera puede pedirle a estas IA que generen scripts para:
- Keyloggers: Roban tus contraseñas.
- Ransomware: Secuestran tus archivos.
- Extractores de datos: Espían tu computadora.
Un archivo aparentemente inofensivo puede contener un código generado por IA que se activa al abrirlo.
Reingeniería social: La sinfonía del engaño emocional
- Antes: El estafador debía ser carismático y paciente.
- Ahora: La IA genera guiones perfectos, analiza tus redes sociales, crea perfiles falsos con fotos y biografías creíbles. Puede hacerse pasar por un familiar, un nuevo amor o un reclutador. Incluso puede imitar voces. El fraude emocional se ha industrializado.
¿Cómo defenderte del “Dark Chat GPT”?
La amenaza es real, pero también lo es la defensa. Aquí algunas claves:
- Desconfía siempre: Si algo es demasiado perfecto, probablemente no sea real.
- Verifica por otros medios: Llama directamente a la persona o empresa. No uses los datos del mensaje sospechoso.
- Educa a tu entorno: La seguridad digital es una responsabilidad compartida.
- Activa la autenticación multifactor (MFA): Una capa extra de seguridad puede marcar la diferencia.
- Mantén tu software actualizado: Navegadores, antivirus y sistemas operativos deben estar al día.
Conclusión: La batalla ya comenzó, La era del “Dark Chat GPT” ha llegado, y la Patagonia no es la excepción. Su nivel de ingresos la convierte en un blanco atractivo para los cibercriminales. Esta tecnología, en manos equivocadas, puede ser devastadora. Pero la información es tu escudo.
Desde el Instituto de Derecho e Inteligencia Artificial del Colegio de Abogados de Neuquén, trabajamos para proteger a la población. La lucha contra el lado oscuro de la IA es una responsabilidad de todos.
¿Estás preparado para enfrentarla?
(*) Por David Fernández Goinhex, Mg. especialista en Derecho Penal UBA. Diplo. en Inteligencia Artificial UNC.
Comentarios