El panorama tecnológico y político ha dado un vuelco inesperado con el reciente conflicto entre Anthropic y Trump. La tensión ha escalado hasta un punto de no retorno: Estados Unidos contra Anthropic o, más específicamente, Donald Trump contra Dario Amodei. Pero, ¿qué ha pasado exactamente para que lleguemos a esta situación de bloqueo y amenazas?
La respuesta es muy fácil y reside en los límites éticos del desarrollo tecnológico. El CEO de Anthropic y todo su equipo han tomado una decisión firme sobre el uso de su inteligencia artificial, Claude, en contextos bélicos. Han dicho: «Oye, si vamos a utilizar nuestra inteligencia artificial para todo lo que tenga que ver con armamento o temas militares, vamos a poner una línea roja».
Las líneas rojas de Dario Amodei y el Pentágono
Esta línea roja establecida por Anthropic no es un detalle menor. La empresa insiste en que todo lo que tenga que ver con civiles, personas y soldados debe estar siempre revisado por un humano. No están dispuestos a permitir ataques físicos autónomos o vigilancia masiva sin supervisión directa. Sin embargo, desde la administración de Donald Trump y el Pentágono, la visión es muy distinta.
La respuesta del Gobierno fue un ultimátum claro: «Eh, déjame hacer esto a mí como me dé la gana si quieres que utilice tu inteligencia artificial; no me pongas tú la línea roja». Ante esta presión del Pentágono, que incluso fijó plazos para eliminar estas restricciones éticas, Dario Amodei y su equipo se mantuvieron firmes contestando: «Pues no, esta es mi inteligencia artificial y yo, que la conozco, soy quien marca los límites».
La respuesta de Trump: Publicidad negativa y alianzas con OpenAI
El conflicto entre Anthropic y Trump no se quedó en una simple diferencia de opiniones. La reacción del presidente fue contundente y punitiva. Trump amenazó con declarar a Anthropic como «peligrosa para el Estado» y advertir a todo el mundo que no utilicen su tecnología. Además, el plan incluye lanzar toda la publicidad negativa posible contra la empresa y utilizar leyes de la era de la Guerra Fría, como la Ley de Producción de Defensa, para intentar obligarlos a cooperar.
¿Qué ha hecho Claude ante esto? Mantenerse en sus trece. Ante esta firmeza, el «bono» de Donald Trump ha decidido hundir a Anthropic mediáticamente mientras traslada toda la publicidad positiva y el apoyo gubernamental al señor de OpenAI, Sam Altman, quien parece haber aceptado las condiciones que Anthropic rechazó.
El futuro de la IA bajo la administración Trump
Este conflicto entre Anthropic y Trump marca un precedente peligroso en la industria. Por un lado, tenemos a una empresa que prioriza la seguridad y la revisión humana en aplicaciones críticas de defensa; por otro, una administración que busca el control total de las herramientas de IA para fines militares sin restricciones externas.
Mientras Anthropic se enfrenta a la etiqueta de «riesgo para la cadena de suministro», el sector observa con atención cómo el Gobierno estadounidense utiliza su poder para beneficiar a quienes dicen «okay» a sus exigencias, dejando claro que, en la carrera por la inteligencia artificial militar, las líneas rojas éticas pueden tener un coste muy alto para las empresas que decidan mantenerlas.
