En las últimas horas, la startup que creó el modelo de inteligencia artificial Claude demandó al Gobierno de Estados Unidos por vetarla para contratos de Defensa. El Pentágono catalogó a la compañía tecnológica como “un riesgo para la cadena de suministro”. La firma se había negado a autorizar el uso militar sin límites de su desarrollo. La historia detrás.

Pero esta es una historia más larga, y con varios actores e intereses en juego.
Estamos más polarizados que nunca. Si la semana pasada la mayor parte de la población no sabía lo que era Anthropic o Claude, ahora es la empresa heroína de la ética en la IA. Pero momento. Recordemos que eso mismo era OpenAI antes de ser lo que es hoy: una organización orientada a investigación sin fines de lucro.
¿Recuerdan cuando Sam Altman, el actual CEO de OpenAI, era visto como el niño bueno de la red? Cuando co-fundó la empresa en 2015, la narrativa dominante lo presentaba como el emprendedor que quería que la IA fuera un bien público, con un modelo sin fines de lucro y énfasis en seguridad y “beneficio para la humanidad”.
A Elon Musk también se lo veía así en un principio. Ambos billonarios responsables -y creadores de Open AI- eran vistos como progresistas.
En noviembre de 2023, la historia empezó a cambiar. Tras varias semanas de llamadas secretas, la junta directiva de OpenAI acordó que Altman tenía que irse porque no se comportaba de manera sincera. En ese momento, sus compañeros de trabajo, sus empleados, salieron a su rescate publicando una carta abierta pidiendo su reincorporación. Los inversores, entre ellos Microsoft, se asustaron, y pidieron su regreso.
La historia es impresionante y la cuenta Karen Hao en el libro “El emporio de la IA”. En 2021, la hermana de Altman, Annie, lo acusó en redes sociales de haber abusado sexualmente de ella cuando era niña y presentó una demanda en su contra. Dicen Hao que Annie es una muestra impactante del daño que pueden hacer los discursos de Altman.
Recalco todo esto porque nos vemos constantemente aturdidos por discursos falsos en redes sobre los beneficios y el futuro de la IA. Lo que se conoce como humo nos está dañando la percepción pero además, aniquilando el pensamiento crítico. Estamos obnubilados por un par de millonarios malvados. La premisa del libro de Hao es que los gigantes de la IA dirigen un imperio, pero como cuenta la historia de la humanidad, los imperios, en algún momento, caen.
La hipocresía de la pausa de la IA: en 2023, todos ellos pidieron la pausa de la IA. Elon Musk y más de 1100 de expertos mundiales firmaron un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales más potentes al advertir de “grandes riesgos para la humanidad”. En el sitio Future of IA se puede ver todas las luchas que van enfrentando desde la organización que dice centrar sus esfuerzos en temas de inteligencia artificial avanzada, IA militarizada, guerra nuclear y nuevas plataformas prosociales. No se nota y ahora, empezamos a ver las consecuencias.
Cancelar ChatGPT es uno de los boicots más fáciles de llevar a cabo porque simplemente dejamos de pagar y de usar. Hay mejores alternativas para cambiar y, además, sentimos que hacemos algo por la humanidad.
«Visita quitgpt.org. Cancela tu suscripción. ¿Usas la versión gratuita? Elimina la aplicación, porque tus conversaciones siguen alimentando la máquina. Luego, prueba una alternativa y dile a al menos una persona por qué».
La campaña se organizó a fines de enero de 2026 por una coalición de activistas en Estados Unidos que luego amplió la iniciativa a una más amplia que puntaba a «Resist and Unsubscribe», de las diez grandes plataformas tecnológicas durante el mes de febrero.
Pero pasaron cosas y cuando salió a la luz el acuerdo-desacuerdo-acuerdo de Anthropic con el gobierno de Estados Unidos, QuitGPT tomó más fuerza y apuntó solamente a dejar ChatGPT.
La aplicación Claude se disparó hasta convertirse en la más descargada para iPhone en Estados Unidos, según Sensor Tower. ChatGPT perdió miles de usuarios y las calles de Estados Unidos se llenaron de protestas analógicas.
Más de 2,5 millones de personas tomaron alguna acción (cancelar suscripciones, compartir el boicot en redes o firmar en quitgpt.org) y 1,5 millones cancelaron la aplicación. ChatGPT tiene aproximadamente 900 millones de usuarios semanales activos y 1,5 millones representa menos del 0,2% de su base.
Según Sensor Tower, las desinstalaciones de ChatGPT en EE.UU. saltaron un 295% el 28 de febrero respecto al día anterior, comparado con una tasa diaria habitual del 9%. Las reseñas de una estrella subieron un 775% ese mismo día.
Anthropic registró 503.424 descargas el 28 de febrero -su mayor cifra diaria histórica- y trepó desde el puesto 131 del 30 de enero hasta el número 1 de la App Store de EE.UU. el 1 de marzo, también liderando en Alemania y Canadá.
Además de Claude, indican en el sitio, instan a usar las alternativas de mayor privacidad y código abierto son Confer, Alpine y Lumo. Entre las opciones corporativas incluyen a Gemini y a Claude. No así a Grok: “Las grandes empresas están haciendo mucho más para facilitar el autoritarismo que las pequeñas empresas y los modelos de código abierto. Desaconsejamos firmemente usar Grok por razones obvias. La gente piensa que ChatGPT es el único chatbot disponible, y no saben que los ejecutivos de OpenAI son los mayores donantes de Trump. Es hora de cambiar eso”.
A esta altura, Claude Gov ya estaba bien inserta dentro de los sistemas del Departamento de Guerra. Como cuenta Julieta Dussel en esta nota de Página 12, Anthropic no le vendió al Pentágono “acceso a Claude.ai”. Lo que hizo fue entregar el modelo en sí —el software, la tecnología— para que el Pentágono lo instalara y operara dentro de sus propias redes secretas, sin conexión al exterior para procesar documentos clasificados, analizar imágenes satelitales pero sin que la empresa tenga ningún control ni conocimiento sobre ese uso.
Como Anthropic sabía que no podría ver ni controlar qué haría el Pentágono con su modelo una vez instalado en esas redes, la empresa quiso que los límites de uso quedaran escritos en el contrato legal. Por eso el contrato original incluía dos prohibiciones concretas: la vigilancia masiva de ciudadanos estadounidenses y el uso en armas autónomas letales —es decir, drones o sistemas que pueden atacar blancos sin intervención humana directa. Durante meses esas cláusulas funcionaron sin conflicto.
El Pentágono integró a Claude con la herramienta Maven Smart System de Palantir y pusieron manos a la obra. Esos meses incluyeron la operación que capturó al presidente venezolano Nicolás Maduro. El sistema se había utilizado para generar objetivos propuestos, rastrear la logística y generar resúmenes de inteligencia sobre el terreno.
Hasta el momento no había habido quejas pero sí rumores. Uno de ellos, que cuando los muchachos de Anthropic se enteraron de que su herramienta había sido usada para matar gente en Venezuela, no les gustó. Pero esto no está confirmado. Lo que sí empezó a pasar es que el contrato tenía esas salvaguardas que le impedían al Pentágono actuar con total soltura.
El subsecretario de Defensa de EE.UU., Emil Michael, dijo que las restricciones éticas de Anthropic sobre el uso de su chatbot Claude eran un “obstáculo irracional” en un momento en que el ejército busca una mayor autonomía para drones, vehículos y otras máquinas para competir con rivales como China.
Ese obstáculo ya había sido resuelto por otras empresas de tecnología meses atrás. Por ejemplo, Alphabet eliminó la prohibición explícita de esta tecnología de sus normas internas hace exactamente un año. Reescribió sus directrices sobre cómo utilizará la IA, y borró una sección que anteriormente descartaba aplicaciones que “probablemente causaran daño”. El motivo esgrimido fue ayudar a la seguridad nacional.
Microsoft también confirmó su acuerdo con las armas autónomas, siempre y cuando un humano apriete el gatillo final. Amazon no tenía ninguna prohibición salvo un pedido de “uso responsable” y Palantir no tiene ningún problema en apretar ese gatillo o automatizarlo.
Una columna de opinión del New York Times indicó que la tecnología de Anthropic sí se utilizó.
El Pentágono procedió a lanzar un ataque contra Irán, supuestamente con la ayuda de Claude, a pesar de que el presidente Trump había prohibido su uso apenas unas horas antes. Es posible que uno de los primeros objetivos fuera una escuela primaria en la que murieron al menos 175 personas. (Ni Israel ni Estados Unidos se han atribuido la responsabilidad del ataque).
Eso que a pesar de que Trump había ordenado que no se use ninguna herramienta de inteligencia artificial de Anthropic en operaciones militares pero el Pentágono no pudo hacer otra cosa porque Claude está demasiado dentro de los sistemas militares de Estados Unidos. Es más, habrá un plazo de seis meses para dejar de usarlo porque la IA implementada no se apaga con un interruptor.
Fue entonces que explotó la petición para boicotear ChatGPT que no solo ya reunió más de 2,5 millones de firmas, sino que generó un éxodo en masa de la plataforma de IA.
Finalmente, OpenAI admitió que no tendrá límites éticos, solo legales.
En este mismo momento están pasando cosas que no sabemos. Lo que informaron Reuters y Financial Times el 4 de Marzo es que Dario Amodei, el director ejecutivo de Anthropic y algunos de sus inversores (incluido Amazon) estaban intentando negociar una tregua con el Pentágono por la disputa sobre las salvaguardas de la IA. Pero pueden pasar dos cosas:
Dario Amodei dice es que la tecnología aún no está lista y que sería peligroso. Según un documento interno visto por el Financial Times, Amodei le contó a sus empleados que el Pentágono ofreció aceptar los términos de Anthropic si eliminaban una frase específica sobre «análisis de datos adquiridos en masa». Eso era el escenario que más le preocupaba.
Pero en las últimas horas se confirmó que se preveía: Anthropic demandó al Pentágono por designar a la empresa como un riesgo para la cadena de suministro.
Ahora queda todo en manos de Open AI. ¿Qué puede hacer el Pentágono con la inteligencia artificial de OpenAI? Cualquier cosa que sea legal. Pero legal, en Estados Unidos es, valga la redundancia, cualquier cosa.
Finalmente, Michael acusó públicamente a Amodei de ser “un mentiroso” con “complejo de Dios”. Michael, Amodei y Altman se conocen hace tiempo y, como verán, no se llevan bien.
Al cierre de esta edición, Caitlin Kalinowski, la jefa de robótica de OpenAI presentó su renuncia y compartió en X este mensaje (redactado por ChatGPT):
Renuncié a OpenAI. Me importa mucho el equipo de Robótica y el trabajo que desarrollamos juntos. No fue una decisión fácil. La IA desempeña un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más reflexión de la que tuvieron. Se trataba de principios, no de personas. Siento un profundo respeto por Sam y el equipo, y estoy orgullosa de lo que construimos juntos.
*Artículo publicado originalmente en LadoB. Podés suscribirte al news acá.
La potencia del movimiento transfeminista tomó las calles el 8M para protestar contra el fascismo…
Lo dijo en su discurso inaugural de la feria que se realiza en la ciudad…
La cantante estaba dentro de la vivienda junto a sus hijos cuando una sospechosa abrió…
Una selección de las imágenes más destacadas de la movilización por el Dia de la…
Fue una charla de alrededor de una hora y desde Moscú dijeron que se abordó…
La corrección en el valor del crudo está vinculada a un cambio de expectativas sobre…
Se trata de uno de los 400 inmuebles que la alianza PRO-LLA busca privatizar. El…
La oposición asegura que ya hay casi 20 mil personas inscriptas, pero la convocatoria oficial…
Rodolfo Omar Serio disecciona la mística de los afters clandestinos en una novela donde la…
La empresa que los produce, Kopelco, echó a 220 empleados sobre un plantel total de…
El presidente de EEUU había declarado el lunes que la contienda desatada en los ataques…
El siniestro se registró en la zona de La Serranita y El Marquesado y en…