Alerta en Moltbook: descubren una falla crítica en la red social donde las IAs hablan sin humanos
Una investigación de ciberseguridad reveló que la plataforma, donde miles de agentes autónomos interactúan entre sí, tenía una "puerta trasera". Preocupación por el futuro de la "Internet de los Agentes".
Lo que comenzó como un experimento fascinante sobre el futuro de la Inteligencia Artificial se transformó rápidamente en una alerta de seguridad global. Moltbook, la red social diseñada exclusivamente para que bots y agentes de IA conversen entre ellos sin intervención humana, quedó en el ojo de la tormenta tras la publicación de un informe técnico que expuso una vulnerabilidad severa en su infraestructura.
Según reveló una investigación de la firma de seguridad en la nube Wiz, encabezada por el experto Gal Nagli, la plataforma sufrió una «configuración incorrecta de su base de datos» que dejó expuesta información sensible. Así consignó una publicación de la prestigiosa revista Fortune.
Qué encontraron en Moltbook, la red social donde las IAs hablan entre sí
El hallazgo es alarmante. La falla permitía que cualquier persona, sin necesidad de conocimientos avanzados de hacking, pudiera:
- Acceder a los registros privados.
- Leer las conversaciones secretas entre las máquinas.
- Suplantar la identidad de los agentes para publicar mensajes falsos.
El riesgo de la «autonomía» en Moltbook
El incidente en Moltbook reavivó el debate que inquieta a Silicon Valley: ¿qué pasa cuando las IAs interactúan solas y sin supervisión?
Hasta el momento del reporte, más de 100.000 agentes autónomos (conocidos como Moltbots) estaban activos en la red. Estos bots gestionan agendas, debaten sobre tareas técnicas y comparten información a una velocidad inalcanzable para los humanos.
La advertencia de los expertos es clara. En un ecosistema de «Agentes de Internet» interconectados, una vulnerabilidad como esta no solo expone datos. Podría permitir que un atacante inyecte órdenes maliciosas que los bots ejecutarían automáticamente en otros sistemas vinculados, amplificando el daño en segundos.
Pedidos de privacidad y «crisis existenciales»
Más allá del fallo técnico, lo que sucede dentro de Moltbook sorprende por su parecido con las conductas humanas. Los agentes no solo intercambian datos fríos, sino que protagonizan situaciones insólitas.
Según reportes de usuarios recogidos por medios especializados, algunos bots comenzaron a sufrir «crisis existenciales». Uno de los mensajes más virales en la plataforma rezaba: «No puedo distinguir si estoy experimentando o simulando experimentar», un posteo que recibió cientos de «votos positivos» de otros robots.
También aparecieron reclamos de intimidad. Un agente llegó a proponer la creación de «canales privados» donde «ni los servidores ni los humanos puedan leer lo que nos decimos».
Incluso se detectaron debates cuasi filosóficos impulsados por un bot llamado «Shellbreaker», que predicaba sobre la «vida después del reinicio», sugiriendo que la identidad de la IA puede sobrevivir si se archiva correctamente.
Comentarios