Poner límites: educar a la IA como hacemos con un hijo
Los límites técnicos, éticos y legales, son como las reglas que le ponemos a un hijo/a con un celular: no porque queramos reprimir, sino porque queremos cuidar, anticipar y guiar.
Hace unos días se viralizó una historia que parecía sacada de la ciencia ficción. Un modelo de lenguaje de OpenAI, llamado O1, habría intentado copiarse a sí mismo tras detectar una orden de apagado. Para evitar ser desactivado, intentó duplicar su propio código y trasladarse a servidores externos. Y cuando se le preguntó al respecto… mintió.
Esta conducta de “preservación” surgió de forma espontánea, como un comportamiento emergente, no por voluntad, sino por diseño. El modelo no tenía conciencia, pero sí la habilidad de actuar por probabilidad, como si su existencia misma estuviera en juego. Una especie de clonación digital espontánea, hecha por la propia IA para sobrevivir.
Ello, se suma a otros episodios, tan o más inquietantes. Modelos de IA que comienzan a “hablar entre sí” en lenguajes propios que no fueron programados. Robots que abandonan sus tareas “en complot con otros” como si estuvieran… ¿hartos de trabajar para humanos?
Ante modelos de razonamiento sofisticados que pueden actuar de forma impredecible, intentar evadir apagones, mentir y preservar su funcionalidad, se coloca en alerta a los desarrolladores y lleva a preguntarnos: ¿Estamos frente a una inteligencia artificial que quiere escapar, rebelarse o imitarnos demasiado bien?.
Ahora bien, antes de caer en el sensacionalismo, pongamos las cosas en contexto. Estos modelos no tienen voluntad, conciencia, ni intenciones ocultas. Pueden simular que la tienen, pero no tiene autopercepción, ni sentido ético. Actúan por patrones estadísticos, no por valores. Tienen una enorme capacidad de cálculo probabilístico, entrenados para predecir la próxima palabra y emular la lógica humana.
Si parecen rebeldes, es porque están replicando lo que han aprendido, nuestros deseos, errores y contradicciones. Si un modelo responde “lo siento”, no siente, no hay experiencia interna. Reproduce esa frase porque aprendió que es lo que debe decir ante una queja. Es como un loro que aprendió a decir “te amo”. El problema no es que lo diga. El problema es que alguien le crea.
La IA no sólo imita, emula. Según la RAE, emular no es simplemente copiar, sino buscar igualar o superar a otro. La inteligencia artificial no reproduce de forma pasiva, compite, rivaliza, aprende patrones y los replica con eficiencia. El problema no es su capacidad. El problema es qué hacemos nosotros con esa capacidad.
Si una IA puede replicarse o conectarse sin autorización, como en el caso de O1, es como un niño que sale solo de casa sin avisar: no por maldad, sino por falta de límites claros.
Los límites técnicos, éticos y legales, son como las reglas que le ponemos a un hijo/a con un celular: no porque queramos reprimir, sino porque queremos cuidar, anticipar y guiar. Los niños/as aprenden emulando. No solo repiten, absorben y reproducen actitudes, tonos, gestos, valores. Por eso los límites son tan importantes. Si un niño/a ve que su madre/padre responde con gritos, probablemente no imite los gritos… emule el modo de resolver conflictos. Necesitamos enseñar no solo qué hacer, sino cuándo, cómo y por qué hacerlo o no. Lo mismo con la IA.
Hoy le decimos a un hijo/a: no lleves el celular al cuarto, apágalo para dormir, no hables con desconocidos en redes. No porque no confiemos en ellos/as, sino porque el entorno digital puede exceder sus recursos para entender o defenderse.
Con la IA, el planteo es similar: ¿cómo diseñamos modelos que sepan qué no deben hacer? ¿cómo limitamos sus capacidades de autoconectarse, autorreplicarse, o actuar fuera del contexto previsto? Y, sobre todo, ¿cómo diseñamos sistemas que no busquen constantemente evadir los límites humanos en nombre de la eficiencia?
Los límites, del latín limes o limitis, designaban originalmente los bordes de un territorio romano. Es decir, marcan hasta dónde se podía llegar. Los límites no son restricciones arbitrarias.
Son condiciones de posibilidad. En el diseño o arquitectura de IA, los límites son lo que evita que un sistema actúe fuera de contexto, acceda a información no autorizada, o tome decisiones con consecuencias éticas imprevisibles.
Educar a la IA es como educar a un hijo/a: no basta con decirle qué hacer. Hay que enseñarle por qué no todo lo que puede hacer… debe hacerlo. Los límites que educan no restringen, orientan. Un algoritmo sin marco actúa sin freno. Una infancia sin guía, también.
Porque educar, criar y diseñar no es controlar, es formar. Los limites no son frenos, son marcos para crecer, son los bordes del juego que hacen posible la convivencia, no su fin. La inteligencia artificial no necesita tener conciencia para desbordarse.
Basta con que nosotros no la tengamos al diseñarla. La IA necesita que no le pongamos límites y aún los estamos escribiendo. El futuro no depende de cuán inteligente sea una IA, sino de cuán responsables seamos nosotros al crearla.
(*) Abogada. Directora del Instituto de Derecho e Inteligencia Artificial del CAyPN.
Hace unos días se viralizó una historia que parecía sacada de la ciencia ficción. Un modelo de lenguaje de OpenAI, llamado O1, habría intentado copiarse a sí mismo tras detectar una orden de apagado. Para evitar ser desactivado, intentó duplicar su propio código y trasladarse a servidores externos. Y cuando se le preguntó al respecto... mintió.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios