La ética desafía al poder: el caso Anthropic y la batalla por el control tecnológico

La postura ética de la empresa frente al uso militar de la inteligencia artificial desató un choque con el gobierno de Estados Unidos y reabre el debate sobre sus límites.

Redacción

Por Redacción

La disputa entre Anthropic y el gobierno de Estados Unidos expuso uno de los debates más profundos de la era tecnológica: ¿quién decide cómo se usa la inteligencia artificial cuando está en juego la seguridad nacional? Lo que comenzó como una diferencia de criterios escaló hasta convertirse en un enfrentamiento judicial y político, con consecuencias que van mucho más allá de una empresa.

El conflicto se desató luego de que el Pentágono exigiera acceso sin restricciones a los modelos de IA de Anthropic, en particular a Claude, una de las herramientas más avanzadas actualmente en uso dentro de sistemas clasificados del Departamento de Defensa. La negativa de la compañía, fundada en 2021 por Dario Amodei y su hermana Daniela, fue tajante: no autorizarían el uso de su tecnología para vigilancia masiva ni para sistemas de armas autónomas sin supervisión humana.

La respuesta del gobierno encabezado por Donald Trump fue contundente. En una medida inédita para una empresa estadounidense, Anthropic fue catalogada como “riesgo para la cadena de suministro de seguridad nacional”, una etiqueta habitualmente reservada para compañías extranjeras consideradas adversarias, como Huawei. La decisión implica, en la práctica, que proveedores y contratistas del Estado deben dejar de trabajar con sus sistemas, mientras que las agencias federales recibieron la orden de discontinuar su uso.

Para Anthropic, la medida constituye una represalia directa. En una demanda presentada ante un tribunal federal en San Francisco, la empresa sostuvo que el gobierno está castigando su postura ética y excediendo su autoridad legal. “La Constitución no permite que el gobierno utilice su poder para penalizar a una empresa por su discurso”, argumentó el documento.

Detrás del cruce legal se esconde un dilema estructural. Para el aparato de defensa estadounidense, la inteligencia artificial se ha convertido en un recurso estratégico comparable a las armas o los sistemas de inteligencia. En un escenario global atravesado por la competencia tecnológica, especialmente con China, limitar el acceso a herramientas de vanguardia puede interpretarse como una debilidad. Desde esa lógica, la negativa de Anthropic no es solo una decisión empresarial: es un factor que podría comprometer la capacidad operativa del Estado.

Pero del otro lado, la empresa plantea una línea roja que cada vez gana más adeptos en la industria. La posibilidad de utilizar IA para vigilar masivamente a ciudadanos o para delegar decisiones letales en sistemas autónomos abre interrogantes éticos y riesgos difíciles de contener. Esa preocupación fue respaldada por cientos de especialistas, incluidos ingenieros vinculados a OpenAI y Google, quienes advirtieron sobre las consecuencias de avanzar sin restricciones en estos campos.

Una encrucijada


El caso también puso en evidencia una tensión creciente: la dependencia del Estado respecto de desarrollos tecnológicos creados por el sector privado. A medida que las empresas lideran la innovación en inteligencia artificial, los gobiernos enfrentan un dilema incómodo. Necesitan esas herramientas para competir y garantizar seguridad, pero no siempre pueden imponer las condiciones de uso.

La escalada del conflicto —que incluyó amenazas de aplicar leyes de la Guerra Fría para forzar la cooperación— sugiere que la disputa recién comienza. Más allá del desenlace judicial, lo que está en juego es el modelo de gobernanza de la inteligencia artificial: si prevalecerá una lógica de control estatal absoluto o si las empresas podrán establecer límites basados en principios éticos.

En ese terreno incierto, el enfrentamiento entre Anthropic y el Pentágono deja una señal clara. La carrera por dominar la inteligencia artificial ya no es solo tecnológica. Es sobre todo una discusión sobre poder, responsabilidad y los límites que las sociedades están dispuestas —o no— a aceptar.

En el centro de la disputa


Fundada por los hermanos Dario Amodei y Daniela Amodei, Anthropic es una empresa estadounidense de inteligencia artificial que se posiciona como una de las principales competidoras del sector con un enfoque centrado en la seguridad y la ética.

Su producto más conocido es Claude, un modelo de IA de última generación capaz de procesar lenguaje, asistir en tareas complejas y operar incluso en entornos sensibles como sistemas clasificados. A diferencia de otras compañías, Anthropic establece límites explícitos sobre el uso de su tecnología: rechaza su aplicación en vigilancia masiva y en sistemas de armas autónomas sin supervisión humana.

Esta postura la llevó a un conflicto directo con el gobierno de Estados Unidos, que busca ampliar el uso de la IA en defensa y seguridad.

La empresa sostiene que su objetivo es desarrollar inteligencia artificial que “maximice los beneficios para la humanidad” y minimice los riesgos, una visión que hoy la ubica en el centro del debate global sobre el futuro de esta tecnología

IA en el campo de batalla


Informes recientes indicaron que el modelo Claude habría sido utilizado en operaciones militares de alto impacto, incluyendo acciones en Irán y la captura del expresidente venezolano Nicolás Maduro. El uso de esta herramienta en misiones críticas sugiere que la IA ya forma parte de sistemas estratégicos de defensa, incluso en un contexto de creciente tensión entre la empresa y el Pentágono.

Con información de AFP


La disputa entre Anthropic y el gobierno de Estados Unidos expuso uno de los debates más profundos de la era tecnológica: ¿quién decide cómo se usa la inteligencia artificial cuando está en juego la seguridad nacional? Lo que comenzó como una diferencia de criterios escaló hasta convertirse en un enfrentamiento judicial y político, con consecuencias que van mucho más allá de una empresa.

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora

Comentarios

Estimados/as lectores de Río Negro estamos trabajando en un módulo de comentarios propio. En breve estará habilitada la opción de comentar en notas nuevamente. Mientras tanto, te dejamos espacio para que puedas hacernos llegar tu comentario.


Gracias y disculpas por las molestias.



Comentar