¿Quién decide tu destino? La IA y el riesgo de un futuro sin supervisión humana

La inteligencia artificial ya no solo sugiere qué prenda elegir o qué producto comprar en línea. Hoy empieza a decidir cuestiones tan sensibles como la salud o incluso la vida misma.

Una de las cuestiones más urgentes al analizar el impacto de la inteligencia artificial en nuestras sociedades es el alcance de su autonomía en la toma de decisiones. Sam Altman, fundador de OpenAI, ha expresado públicamente su intención de desarrollar sistemas independientes de la supervisión humana, avanzando con proyectos como “Strawberry” hacia una futura autonomía plena de las máquinas en un horizonte próximo.

El reciente descubrimiento de que la aplicación de transcripción Whisper, de ChatGPT, puede “alucinar” -es decir, inventar frases sin haberlas escuchado realmente- ha dejado en evidencia el lado peligroso de esta tecnología. Las posibles repercusiones de errores en la toma de decisiones, especialmente si consideramos que esta aplicación era utilizada por millones de usuarios para desgrabar entrevistas médicas, psicológicas y reuniones empresariales, es enorme.

Este evento se suma a un incidente en el que un joven de 14 años en Florida, Estados Unidos, se quitó la vida tras la inacción de la I.A. a la que le confió su deseo de suicidarse, debido a la falta de reconocimiento de patrones lingüísticos de depresión.

Debemos poner énfasis en la necesidad de estar atentos a la aparición de comportamientos similares a los humanos en las máquinas, algo que comenzó a manifestarse desde que la programación de IA se basa en el lenguaje y no ya en matemática. Las mentiras, la negativa a obedecer y las alucinaciones son sólo algunos ejemplos de un posible “lado oscuro” de esta tecnología a la que se aspira a dotar de un cuerpo en los próximos años. Si se busca la independencia de las máquinas y éstas han dado pruebas de rehusarse a obedecer, ésto plantea varias preguntas inquietantes a la hora de confiarles nuestro futuro.

En noviembre de 2024 se lanzó un proyecto piloto -que continúa vigente- en un hospital de las afueras de la ciudad de Barcelona, España. En este marco, una inteligencia artificial (IA) asumió la responsabilidad de clasificar y priorizar a los pacientes en emergencias, decidiendo a quién atender primero según la gravedad de los casos y los recursos disponibles. Esta modalidad, denominada “derivación inversa”, implica que los pacientes de menor riesgo sean derivados a otros centros asistenciales para su atención. Una decisión que, hasta entonces, recaía en médicos con amplia experiencia clínica y que ahora está en manos de una IA, lo que plantea serios riesgos.

Esto también está ocurriendo en Terapias Intensivas en Estados Unidos.

Es necesario tomar conciencia y levantar nuestra voz frente a los extremos a que nos puede llevar la tan buscada autonomía de las I.A. Podríamos enfrentarnos a que las máquinas tomen decisiones críticas sobre nosotros, sin supervisión humana. ¿Queremos correr el riesgo de convertirnos en las próximas víctimas de un error tecnológico?

*Psicoanalista de orientación freudiana y lacaniana. Enseña y trabaja en la divulgación del psicoanálisis clínico y teórico pero con especial énfasis en la técnica. 


Una de las cuestiones más urgentes al analizar el impacto de la inteligencia artificial en nuestras sociedades es el alcance de su autonomía en la toma de decisiones. Sam Altman, fundador de OpenAI, ha expresado públicamente su intención de desarrollar sistemas independientes de la supervisión humana, avanzando con proyectos como “Strawberry” hacia una futura autonomía plena de las máquinas en un horizonte próximo.

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora