Diseñar un Agente autónomo sin saber programar, el nuevo poder de un clic
Es un sistema que actúa sin supervisión humana directa, toma decisiones, ejecuta acciones y responde ante estímulos preestablecidos o aprendidos. Puede estar basado en reglas fijas o en modelos de inteligencia artificial más complejo

Hace tan sólo unos días, en el marco de la Diplomatura de Legatech e I.A. , más de 100 abogados diseñamos agentes autónomos, sin siquiera saber programar. Y esta posibilidad de crear agentes autónomos, resalto: ¡sin necesidad de saber programar!, representa una revolución en la forma en que profesionales, comercios y organismos públicos pueden interactuar con la tecnología. Sin embargo, esa misma facilidad conlleva riesgos que aún no son plenamente comprendidos.
¿Qué es un agente autónomo? Un agente autónomo es un sistema que actúa sin supervisión humana directa, toma decisiones, ejecuta acciones y responde ante estímulos preestablecidos o aprendidos. Puede estar basado en reglas fijas o en modelos de inteligencia artificial más complejos. No se trata simplemente de un bot que responde consultas, sino de un mecanismo que clasifica, deriva, programa, alerta o responde por el usuario que lo creó.
No es lo mismo que un bot, éste suele cumplir una función reactiva y limitada, una tarea concreta y previsible, por ejemplo, responder preguntas frecuentes. En cambio, un agente autónomo tiene autonomía para ejecutar múltiples tareas encadenadas, actuar en diferentes plataformas y generar consecuencias reales sin intervención humana directa, tiene capacidad de tomar decisiones más complejas, integrarse con múltiples sistemas y actuar sin intervención constante, por ejemplo: clasificar al usuario, evaluar su urgencia y tomar decisiones por su cuenta. La frontera entre ambos se difumina, pero la diferencia central radica en la capacidad de decisión y ejecución del agente.
Hoy , vos podes crear un agente autónomo desde tu celular!. Gracias a herramientas como Make, Zapier, ChatGPT con extensiones o AutoGPT, en tres pasos simples:1. Definir el disparador: por ejemplo, ‘cuando llegue un mail con la palabra URGENTE’.; 2. Conectar aplicaciones: como Gmail, WhatsApp, Google Drive, etc; 3. Indicar la acción: reenviar, clasificar, responder, almacenar, publicar, entre otras.
Un comerciante o influencer puede usarlo para detectar los horarios de mayor interacción y programar promociones automáticas. Un abogado, contador, cualquier profesional independiente, puede automatizar la clasificación de correos según el tipo de expediente o derivar consultas a colegas. Una veterinaria puede utilizarlo para enviar recordatorios de vencimientos, automatizar turnos o responder preguntas frecuentes. En salud también pueden agendarse turnos, identificar palabras clave como ‘dolor de pecho’ y derivar automáticamente.
Ahora bien, ¿cuáles son los riesgos de diseñar un agente sin comprender sus alcances? Puede generar errores graves: malinterpretar un mensaje y responder con datos incorrectos, derivaciones inapropiadas, tratarlas como triviales cuando son urgentes, discriminación algorítmica, aplicar ofertas a unos y a otros no sin justificación válida, generar fugas de datos personales o incluso omisiones que afecten derechos de terceros, procesar datos sensibles sin consentimiento, reenviar mensajes sin autorización, almacena información sin protección adecuada en infracción a la Ley 25.326.
La responsabilidad del diseñador y del usuario. El Código Civil y Comercial de la Nación establece la responsabilidad objetiva por el riesgo creado (art. 1757). Esto significa que, aunque el agente actúe solo, el diseñador y/o usuario responde por los daños causados. No se trata de una excusa válida afirmar desconocimiento técnico: quien activa un sistema autónomo debe asumir sus consecuencias. Los agentes autónomos pueden procesar correos, chats o documentos pueden almacenar información sensible sin garantías claras de confidencialidad. Diseñar sin prever estas consecuencias puede comprometer el secreto profesional, comercial o incluso la privacidad de terceros. No se trata solo de lo que hacen. Sino de lo que pueden revelar.
Lo mismo sucede con el uso masivo de ChatGPT , el propio CEO de OpenAI, Sam Altman, advirtió que la confidencialidad que rige a los profesionales no aplica en IA, dejando a usuarios sin protección jurídica si sus datos se solicitan por vía judicial. Evidencia un punto crítico: las conversaciones con ChatGPT y lo que allí volcamos no son necesariamente privadas. Si un juez solicita acceso, pueden revelarse.
Diseñar con responsabilidad. Hoy, diseñar un agente autónomo sin saber programar es técnicamente sencillo y posible. Pero hacerlo sin comprender sus efectos es jurídicamente peligroso. No alcanza con saber cómo hacerlo: es fundamental entender qué implica activarlo, qué riesgos genera, y cómo prevenir daños. El conocimiento tecnológico debe ir de la mano de la responsabilidad legal, ética y profesional. Cuando un agente actúa por nosotros, sus actos nos representan. Hace falta informar, capacitar y asumir que cada clic tiene efectos. Porque en el nuevo ecosistema digital, los agentes actúan por vos, pero los efectos también los pagás vos. La automatización puede volverse delegación, pero el derecho nos recuerda que todo acto tiene consecuencias.
* Abogada, directora del Instituto de Derecho e IA del CAyPNQN

Hace tan sólo unos días, en el marco de la Diplomatura de Legatech e I.A. , más de 100 abogados diseñamos agentes autónomos, sin siquiera saber programar. Y esta posibilidad de crear agentes autónomos, resalto: ¡sin necesidad de saber programar!, representa una revolución en la forma en que profesionales, comercios y organismos públicos pueden interactuar con la tecnología. Sin embargo, esa misma facilidad conlleva riesgos que aún no son plenamente comprendidos.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios