“Anthropic dijo no. El Pentágono igual lo usó”. Por Alexandra Márquez, directora de Ingeniería en Informática y Ciencia de Datos

“Anthropic dijo no. El Pentágono igual lo usó”. Por Alexandra Márquez, directora de Ingeniería en Informática y Ciencia de Datos

El uso del modelo de inteligencia artificial Claude —desarrollado por Anthropic— en el conflicto bélico contra Irán ha convertido lo que comenzó como una herramienta de productividad en un tema de profundo debate ético y geopolítico.

 

El Pentágono ha utilizado Claude para sintetizar inteligencia, identificar blancos militares y simular escenarios de combate, a pesar de que el presidente Trump ordenó a todas las agencias federales cesar su uso, calificando a Anthropic de “empresa de IA ra

dicalmente de izquierda” tras negarse a ceder ante el ultimátum del Pentágono.

El quiebre comenzó con Venezuela: en enero de 2026, fuerzas especiales estadounidenses capturaron al presidente Nicolás Maduro en Caracas, y reportes posteriores revelaron que Claude había sido utilizado durante esa operación a través de la alianza de Anthropic con Palantir.

La contradicción es evidente: pocas horas después de que Trump anunciara el veto, el ejército estadounidense ya estaba usando Claude en los ataques contra Irán. Anthropic se había negado a ceder ante dos exigencias concretas del Pentágono: el uso de Claude para vigilancia masiva de ciudadanos estadounidenses y para armas completamente autónomas.

Esta tensión expone un dilema estructural: Anthropic fue fundado bajo los principios de la “IA constitucional”, con salvaguardas explícitas contra usos que pongan en riesgo vidas de forma autónoma. El Departamento de Defensa designó a Anthropic como “riesgo en la cadena de suministro para la seguridad nacional” —una categoría históricamente reservada para adversarios extranjeros como Huawei—, obligando a contratistas y proveedores a certificar que no usan sus modelos.

El caso abre una pregunta que no tiene respuesta fácil: ¿debe una empresa privada tener la capacidad de imponer límites éticos al uso que un Estado hace de su tecnología? ¿O corresponde al Estado respetar los principios bajo los cuales fue desarrollado el software que adquiere?

 

Por Alexandra Márquez, directora de Ingeniería en Informática y Ciencia de Datos

_*
Tags
ingeniería