IA en los hospitales: estos son los derechos que podrían estar en riesgo
La inteligencia artificial ya está transformando la medicina. Ahora toca preguntarse cómo garantizar que esa transformación respete los derechos de pacientes y profesionales.
María José Parejo Guzmán, Universidad Pablo de Olavide

La inteligencia artificial ya se utiliza en hospitales para priorizar pacientes, apoyar diagnósticos o recomendar tratamientos. Estas herramientas prometen mayor eficiencia y rapidez e, incluso, pueden ayudar a reducir listas de espera.
Sin embargo, junto a estas ventajas surgen preguntas que no son solo técnicas, sino también jurídicas: ¿qué ocurre si un algoritmo ignora las preferencias del paciente? ¿Quién responde cuando una decisión automatizada afecta a derechos fundamentales?
La inteligencia artificial ya está transformando la medicina. Ahora toca preguntarse cómo garantizar que esa transformación respete los derechos de pacientes y profesionales.
Cuando el algoritmo no ve a la persona
La práctica sanitaria nunca ha sido completamente neutral. Las decisiones médicas están atravesadas por valores, creencias y preferencias personales.
Un paciente puede rechazar una transfusión de sangre, solicitar una dieta específica por motivos religiosos o expresar preferencias sobre el final de la vida. Estas decisiones forman parte del ejercicio de la autonomía personal y del derecho a la salud. Sin embargo, muchos sistemas de inteligencia artificial no están diseñados para tener en cuenta esas dimensiones. Funcionan a partir de grandes volúmenes de datos y patrones estadísticos, pero no siempre incorporan variables relacionadas con las convicciones personales o culturales.
Esto puede generar situaciones problemáticas: recomendaciones médicas que no respeten la voluntad del paciente o decisiones automatizadas que, sin pretenderlo, ignoren aspectos esenciales de su identidad.
El riesgo de una discriminación invisible
Otro de los grandes desafíos es el de los sesgos algorítmicos. Si los sistemas de inteligencia artificial se entrenan con datos incompletos o poco representativos, pueden reproducir desigualdades existentes.
Este debate ya está presente en la literatura científica y también en el ámbito divulgativo. En relación al uso de la IA para la prevención de enfermedades, surgen interrogantes sobre privacidad, equidad y control de los datos.
En el ámbito clínico, el problema puede ser aún más delicado. Una herramienta que priorice pacientes o recomiende tratamientos podría perjudicar indirectamente a determinadas minorías, si sus necesidades específicas no están contempladas en los datos de partida.
No se trataría de una discriminación directa, sino de algo más difícil de detectar: una desigualdad incorporada en el propio sistema.
¿Qué ocurre con los profesionales sanitarios?
La introducción de la inteligencia artificial también plantea preguntas para médicos y personal sanitario. ¿Y si un algoritmo recomienda una actuación que entra en conflicto con las convicciones del profesional? ¿Debe seguir la indicación técnica o su propio criterio ético?
Un sistema informático no puede sustituir el juicio clínico ni la responsabilidad profesional. Los sistemas deben entenderse como herramientas de apoyo, no como sustitutos de la decisión humana. De lo contrario, existe el riesgo de desdibujar tanto la responsabilidad como la libertad de conciencia en la práctica médica.
Datos sensibles y decisiones automatizadas
Para que la inteligencia artificial tenga en cuenta las preferencias del paciente, sería necesario incorporar información especialmente sensible, como sus creencias religiosas o convicciones personales.
Aquí aparece otro problema jurídico relevante: la protección de datos. La religión es considerada un dato especialmente protegido por la normativa europea y su uso exige garantías estrictas.
Esto obliga a encontrar un equilibrio complejo: cómo respetar las convicciones del paciente sin comprometer su privacidad.
Investigaciones recientes han subrayado estos desafíos, como un trabajo reciente sobre inteligencia artificial y diversidad religiosa en sanidad publicado en la revista Religions, donde destacamos la necesidad de adaptar el marco jurídico a los entornos sanitarios digitalizados e incorporar garantías frente a posibles vulneraciones de derechos.
Asimismo, otros estudios han señalado la importancia de repensar la gobernanza de la inteligencia artificial en el ámbito del derecho a la salud para evitar que la innovación tecnológica genere nuevas desigualdades o erosione la autonomía del paciente.
¿Qué garantías necesitamos?
Ante estos desafíos, la clave no es frenar la innovación, sino acompañarla de garantías adecuadas. Entre ellas, destacan la supervisión humana de las decisiones automatizadas, la transparencia de los algoritmos, la evaluación de impacto en derechos fundamentales y la incorporación de acomodaciones razonables en entornos digitales.
Esto implica diseñar sistemas capaces de adaptarse a las necesidades reales de los pacientes, incluyendo sus convicciones personales, sin comprometer la equidad del sistema sanitario.
La inteligencia artificial puede mejorar la medicina, hacerla más eficiente y, en muchos casos, más precisa. Pero también puede transformar silenciosamente la forma en que se toman decisiones sobre la salud.
Por eso, el debate no es solo tecnológico. Es, ante todo, un debate sobre derechos. Si los sistemas de inteligencia artificial no se diseñan con estos principios en mente, corremos el riesgo de que decisiones aparentemente neutras terminen afectando a la autonomía del paciente, la igualdad o la libertad de conciencia.
La inteligencia artificial ya está en los hospitales. La verdadera cuestión no es si debemos usarla, sino cómo garantizar que refuerce –y no debilite– los derechos fundamentales que sustentan la atención sanitaria.
María José Parejo Guzmán, Profesora Titular de la Facultad de Derecho, Universidad Pablo de Olavide
Este artículo fue publicado originalmente en The Conversation. Lea el original.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios