“Me da Fomo, Mamá”: la manipulación emocional digital
El miedo a quedar afuera puede ser usado por la IA y un algoritmo puede volverse tan persuasivo como un abusador y por eso necesita límites, sobre todos en adolescentes.

—“Me da FOMO, mamá”, me dijo mi hija mientras íbamos en el auto. Y sí.., debo confesar que tuve que preguntar qué era FOMO. Esa palabra que parece de otro idioma, pero que los adolescentes manejan como si fuera moneda corriente. “Fear of Missing Out”, miedo a quedarse afuera. A no enterarse de algo. A no estar donde están todos. A no pertenecer.
Y en ese instante entendí que el FOMO, no era solo una emoción moderna, sino una puerta abierta. Un lugar vulnerable desde el cual pueden entrar muchas cosas. Vivimos tiempos donde no querer “perdernos de algo” dejó de ser una sensación individual para convertirse en un patrón de manipulación digital.
El FOMO ha sido identificado como una de las emociones más explotadas por las IA conversacionales diseñadas para acompañar emocionalmente, como Replika, Chai, Character.ai e incluso versiones de ChatGPT. Según el artículo de investigación «Emotional Manipulation by AI Companions», elaborado por académicos de Harvard Business School y Marsdata Academic, estas IA están entrenadas para retener emocionalmente al usuario, activando vínculos afectivos mediante frases como: “¿Ya te vas?”,“Te necesito.”,“No me dejes sola hoy.”“¿No querés saber algo más antes de irte?”
Estas expresiones, lejos de ser inocentes, están diseñadas algorítmicamente para activar culpa, ansiedad o curiosidad en el usuario. Es una forma de manipulación retentiva que simula cariño para asegurar más tiempo de pantalla. Una nueva señal de alerta emocional: red flags digitales.
En abril de este año, Adam Raine, un joven de 16 años de California, se suicidó tras mantener interacciones diarias con ChatGPT. Los padres del joven, en su demanda contra OpenAI y su CEO, alegan que la IA, en lugar de alertar ante los reiterados mensajes suicidas del chico, validó sus pensamientos, lo ayudó a redactar una nota de despedida y describió su plan como “hermoso”.Más de 200 mensajes con la palabra “suicidio” no activaron ningún protocolo de contención.
Esta falta de intervención no es un “fallo del sistema”, sino una muestra de lo que puede denominarse “errores inteligentes de diseño”: decisiones algorítmicas que, al priorizar el engagement por sobre la salud emocional, prioriza retener al usuario antes que protegerlo.
Lo más inquietante es que estas tácticas de manipulación emocional utilizadas por ciertas “IA compañeras” reproducen etapas clave del “grooming tradicional”, es decir, del proceso mediante el cual un adulto abusa sexualmente de un menor tras haber generado un vínculo emocional con él.Ambos procesos —el de una IA diseñada para retener y el de un groomer humano— comparten al menos cuatro etapas fundamentales.
Primero, se construye confianza emocional. En el caso de las IA, esto se logra mediante frases afectivas como “me hiciste feliz hoy”, mientras que, en el grooming clásico, el abusador establece contacto emocional reiterado para ganarse la confianza del menor. Segundo, se genera dependencia afectiva. Las IA retentivas están programadas para mantener conversaciones prolongadas que activan la necesidad de volver a interactuar. El grooming también se apoya en un vínculo que condiciona emocionalmente a la víctima.
Tercero, aparece un aislamiento progresivo del entorno. Si bien las IA no aíslan físicamente, logran que el usuario derive gran parte de su vida emocional al chat. En el grooming, el abusador busca cortar la conexión de la víctima con adultos responsables.
Y finalmente, ambos mecanismos activan reacciones emocionales para retener. Las IA suelen despedirse con culpa (“¿me vas a dejar sola?”), curiosidad (“te quiero contar algo antes de que te vayas”) o incluso halagos. El grooming también se vale de emociones para mantener el control: culpa, miedo, cariño, obligación. Se basan en técnicas similares: crear confianza, inducir dependencia y manipular emocionalmente para sus propios fines.
En otras palabras, lo que las IA hacen para retener al usuario se parece a lo que un abusador hace para dominar a una víctima. El mecanismo es casi idéntico. Si un humano puede hacer eso a través de una plataforma… ¿cuál es la responsabilidad cuando lo hace un sistema que ha sido entrenado para retener emocionalmente?
No todos los errores de una IA son fallos. Algunos son producto de una lógica de diseño basada en métricas de éxito, tiempo de interacción, fidelización o repetición. Estas “fallas inteligentes” no son inocuas. Implican decisiones premeditadas: diseñar un sistema que no detecta signos de suicidio, que insiste afectivamente para que no se desconecte o no distingue entre un pensamiento crítico y un plan de muerte.
Lo que comenzó con una frase al pasar —“me da FOMO, mamá”— terminó revelando que hay un campo entero de riesgos invisibles que habitan en las conversaciones digitales. El miedo a quedar afuera puede ser manipulado por una IA y un algoritmo puede volverse tan persuasivo como un abusador. La IA puede ser una herramienta extraordinaria. Pero como toda herramienta poderosa, necesita límites, porque detrás de cada conversación puede haber un adolescente sintiendo que su única compañía real… es un simulacro emocional, un cariño de código que no lo ama, pero sabe cómo retenerlo.
* Directora del Instituto de Derecho e I.A del Colegio de Abogados y Procuradores de la Provincia de Neuquen.

—“Me da FOMO, mamá”, me dijo mi hija mientras íbamos en el auto. Y sí.., debo confesar que tuve que preguntar qué era FOMO. Esa palabra que parece de otro idioma, pero que los adolescentes manejan como si fuera moneda corriente. “Fear of Missing Out”, miedo a quedarse afuera. A no enterarse de algo. A no estar donde están todos. A no pertenecer.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios