El Pentágono quiere usar la IA de Anthropic sin límites
26 feb 2026

¿De quién es realmente la tecnología que usas cada día? Si mañana el Gobierno decidiera que tu software, tu código o tu propiedad intelectual son "asunto de seguridad nacional", ¿tendrías derecho a decir que no? Lo que está ocurriendo entre el Pentágono y la empresa Anthropic no es solo una pelea de despachos; es el primer aviso de que, en la era de la Inteligencia Artificial (IA), la propiedad privada podría ser un concepto mucho más frágil de lo que pensábamos.
La administración estadounidense ha lanzado un órdago que parece sacado de un thriller de espionaje: o Anthropic borra sus límites éticos para este viernes, o el Estado podría invocar leyes de la época de la Guerra de Corea para tomar el control de su tecnología. Se acabó el tiempo de la "IA responsable" cuando hay intereses militares de por medio.
El ultimátum: Las "líneas rojas" que el Gobierno quiere borrar
Para entender el lío, hay que conocer a los protagonistas. Anthropic es la creadora de Claude, una de las IAs más potentes y, supuestamente, más éticas del mundo. Su fundador, Dario Amodei, siempre ha dejado claro que su Inteligencia Artificial (IA) no debe usarse para vigilancia masiva ni para fabricar armas letales autónomas. Son sus "líneas rojas".
Sin embargo, el Pentágono acaba de dar un golpe en la mesa con un mensaje muy directo: "Tus normas éticas nos dan igual". El Gobierno de EE. UU. exige poder usar Claude sin más límites que los que dicte su propia Constitución. Básicamente, quieren que la herramienta sea un soldado más, dispuesto a todo lo que el mando militar considere legal, sin que una empresa privada pueda poner vetos externos.
La tensión ha escalado hasta el punto de que el Pentágono amenaza con activar una norma de hace 75 años, la Defense Production Act, para "apropiarse" de la tecnología si la empresa no cede antes de las 17:01 de este viernes.
¿Por qué está pasando esto justo ahora?
No es casualidad que este choque frontal ocurra en 2026. Hay tres factores que han cocinado esta tormenta perfecta:
El "incidente Maduro": Se ha filtrado que Claude fue una pieza clave en una operación especial para capturar al expresidente venezolano a principios de año. Esto demostró al ejército que la IA de Anthropic es demasiado buena como para dejarla "atada" por principios éticos corporativos.
La carrera contra China: En Washington hay una obsesión real por alcanzar la Inteligencia Artificial General antes que Pekín. En esa carrera, las salvaguardas éticas se ven como un lastre, no como una virtud.
El cambio de administración: Bajo el mandato de Trump, la postura se ha vuelto mucho más agresiva. El mensaje es claro: si eres una tecnológica estadounidense y recibes contratos millonarios (como los 200 millones que ya tiene Anthropic), tu tecnología pertenece al arsenal del país.
El impacto real: Adiós a la soberanía tecnológica
Si estás leyendo esto y piensas que "bueno, yo no fabrico misiles, a mí qué me importa", te equivocas. El precedente que se está sentando aquí es demoledor para cualquier emprendedor o profesional del sector digital.
Si el Pentágono cumple su amenaza, estaremos ante el fin de la ética tecnológica tal como la conocemos. ¿De qué sirve que una empresa invierta millones en seguridad y principios si un gobierno puede declarar una "emergencia" y quedarse con las llaves de tu servidor?
Estamos viendo cómo el software se convierte en un recurso estratégico al nivel del petróleo o el uranio. Para Anthropic y sus inversores (entre los que están gigantes como Google y Amazon), esto es una pesadilla: o se convierten en una extensión del brazo militar, o se arriesgan a ser vetados como si fueran una empresa enemiga, destruyendo su valor de mercado en un fin de semana.
Lo que esto nos dice sobre el futuro (y tu dinero)
Este conflicto nos revela que el futuro de la Inteligencia Artificial (IA) no se va a decidir en laboratorios, sino en campos de batalla y tribunales. La neutralidad tecnológica ha muerto.
A partir de ahora, veremos una polarización total:
Empresas "Soldado": Como xAI (de Elon Musk), que ya ha firmado acuerdos para que el ejército use su modelo Grok sin complejos.
Empresas "Resistentes": Que podrían verse obligadas a mudar sus sedes o limitar sus capacidades para evitar ser intervenidas.
Como profesional o inversor, esto te dice que la seguridad nacional es el nuevo factor de riesgo que nadie vio venir. Si tu negocio depende de una IA que puede ser "confiscada" o modificada por un gobierno de turno, tu modelo de negocio es mucho más volátil de lo que crees.
El gran dilema que nos queda
¿Puede un gobierno apropiarse de la propiedad privada intelectual solo porque la considera vital para la seguridad nacional? Si aceptamos que el Estado puede borrar las "líneas rojas" de una empresa, estamos aceptando que la tecnología ya no pertenece a quien la crea, sino a quien tiene el poder de exigirla.
¿Estamos dispuestos a vivir en un mundo donde el código fuente tiene dueño, pero solo hasta que el Pentágono decida lo contrario?