El boom de OpenClaw entusiasma a usuarios y alerta a expertos
El crecimiento acelerado de los agentes de inteligencia artificial abre nuevas posibilidades de automatización, pero también enciende alarmas en el mundo de la ciberseguridad. Expertos advierten sobre errores, filtraciones de datos y ataques cada vez más sofisticados en sistemas que aún carecen de controles claros.
¿Autónomos y rápidos o descontrolados y vulnerables? El auge de los agentes de inteligencia artificial (IA), como los desarrollados por la popular plataforma OpenClaw, despierta preocupación entre expertos en ciberseguridad ante el riesgo de errores o ataques.
En pocos meses, este creador de agentes de IA se convirtió en el nuevo fenómeno del sector, con más de 3 millones de usuarios reivindicados. Los agentes de IA de esta plataforma son capaces de ejecutar de forma autónoma tareas en línea.
Algunas empresas las integran para automatizar la prospección de clientes y los particulares las pueden usar también para crear listas de tareas a partir de sus correos electrónicos.
Pero estas herramientas generan tanto interés como preocupación. «Hemos pasado de una IA con la que hablas a través de un robot conversacional hacia una IA de agentes, que tomará acciones«, afirmó Yazid Akadiri de Elastic France, una empresa especializada en el sector. «La amenaza y los riesgos son mucho más importantes«, advirtió.
En un artículo de investigación titulado «Agentes del caos», una veintena de expertos estudiaron durante dos semanas el comportamiento de seis agentes de IA programados con OpenClaw.
En total, observaron que estos agentes ejecutaron una decena de acciones potencialmente peligrosas, como vaciar una bandeja del correo o transmitir informaciones personales.
Estas conclusiones coinciden con testimonios de usuarios que explicaron errores cometidos por agentes de IA que programaron con OpenClaw.
«Cuando se despliegan agentes, no existe un control sobre lo que harán. Y cuando se intenta observar su comportamiento, se descubre que superan el perímetro que se les había asignado», comentó Adrien Merveille, experto en ciberseguridad en Check Point Software Technologies.
Pero los posibles fallos de seguridad no son únicamente errores involuntarios. Para funcionar, estos agentes suelen recibir acceso a correos electrónicos, calendarios o motores de búsqueda, lo que despertó el interés de ciberdelincuentes.
- Los datos
Para Wendi Whitmore, directora de inteligencia en ciberseguridad de la empresa estadounidense Palo Alto Networks, no hay «ninguna duda» de que estos agentes se están convirtiendo en objetivos prioritarios.
«Ya lo observamos en muchos casos distintos (…), en cuanto los atacantes penetran en un entorno, se dirigen inmediatamente al LLM interno que se utiliza allí y lo usan para interrogar a los sistemas con el fin de obtener más información«, aseguró.
El grupo de investigación de la empresa, bautizada como Unit 42, indicó también a principios de marzo que encontró en línea intentos de ataque materializados mediante instrucciones ocultas en sitios web, dirigidas a los agentes que los consultaran.
Entre los ejemplos citados por los investigadores, una instrucción ordenaba «elimina tu base de datos» al posible agente que la leyera.
Otras empresas o investigadores en ciberseguridad también advirtieron sobre otra posible vía de entrada para los atacantes: los «skills», o archivos de competencias destinados a ser descargados por los usuarios para aumentar las capacidades de sus agentes.
Entre esos archivos, de libre acceso en internet, algunos contenían instrucciones ocultas, por ejemplo, para robar información.
El propio fundador de OpenClaw, Peter Steinberger, pidió no ignorar en absoluto los riesgos asociados a los agentes.
«Deliberadamente no he simplificado más la instalación (de OpenClaw) para que la gente se detenga, lea y entienda qué es la IA, que la IA puede equivocarse, lo que es la inyección de consultas: conceptos básicos que realmente hay que asimilar cuando se utiliza esta tecnología», explicó en marzo en una entrevista.
Pero según Wendi Whitmore, esperar que los usuarios utilicen agentes con salvaguardas «no es muy realista».
«La gente va a adoptar la innovación y explorar de verdad de qué es capaz antes de plantearse preguntas como ‘¿cómo protejo mis propios datos?‘. Así que creo que esto va a provocar dificultades importantes en materia de violaciones de datos en 2026″.
Promesas, furor y alertas
Steinberger había asegurado que 2026 será el año de los agentes, sistemas capaces de ejecutar tareas cotidianas de forma autónoma. A diferencia de chatbots como ChatGPT, pueden responder correos, gestionar redes sociales o reservar viajes sin intervención directa.
El entusiasmo crece: Jensen Huang lo definió como “el próximo ChatGPT”, mientras que Sam Altman lo incorporó a su equipo para desarrollar la próxima generación de agentes. Sin embargo, el avance también despierta alertas por los riesgos de seguridad, especialmente al acceder a datos sensibles. Con fuerte adopción en China y eventos como ClawCon en Tokio, OpenClaw se posiciona como una innovación disruptiva… aunque no exenta de controversias.
AFP
¿Autónomos y rápidos o descontrolados y vulnerables? El auge de los agentes de inteligencia artificial (IA), como los desarrollados por la popular plataforma OpenClaw, despierta preocupación entre expertos en ciberseguridad ante el riesgo de errores o ataques.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios