In partnership with

💬

Hola, Julius aquí.

Si llevas algunas semanas con nosotros, recuerdas que en febrero te contamos que el gobierno de Estados Unidos y la empresa detrás de Claude estaban en una pelea seria. Una empresa que dijo "no" al gobierno más poderoso del mundo.

El viernes pasado se definió todo — y el final fue más raro de lo que cualquiera esperaba.

Hoy te cuento qué pasó, qué significa para ti y por qué importa aunque vivas en México, Colombia, Ecuador o cualquier rincón de Latinoamérica.

Smart starts here.

You don't have to read everything — just the right thing. 1440's daily newsletter distills the day's biggest stories from 100+ sources into one quick, 5-minute read. It's the fastest way to stay sharp, sound informed, and actually understand what's happening in the world. Join 4.5 million readers who start their day the smart way.

🧠 ¿Cómo te ayuda la IA hoy?

Antes de entrar a la noticia, un dato útil para tu semana:

¿Sabías que puedes usar Claude o ChatGPT para prepararte para una negociación difícil? Solo dile: "Voy a hablar con mi jefe sobre un aumento. Dame los argumentos más fuertes para mi caso, posibles objeciones y cómo responderlas."

La IA no negocia por ti — pero sí te puede dejar listo para cuando llegue el momento. Ese tipo de herramienta práctica es exactamente lo que hoy está en el centro de un debate mundial sobre quién decide cómo se usa.

📰 La Noticia de IA del Día

🪖 Trump corrió a Anthropic, OpenAI tomó su lugar — y el ejército siguió usando Claude de todas formas

Si entraste hoy sin haber leído nuestras ediciones de febrero, aquí va el contexto rápido:

Anthropic es la empresa que creó Claude — la IA que compite directamente con ChatGPT. Desde mediados de 2025, Claude era el único modelo de inteligencia artificial autorizado para trabajar dentro de los sistemas secretos del ejército estadounidense. Un contrato de hasta 200 millones de dólares.

El problema: el Pentágono quería usar Claude para absolutamente todo lo que fuera legal — incluyendo armas que actúen sin que un humano apruebe cada decisión, y vigilancia masiva de ciudadanos. Anthropic dijo que eso no era negociable. Semanas de tensión. Ultimátum. Y el viernes 28 de febrero, todo reventó.

¿Qué pasó exactamente?

El presidente Trump publicó en Truth Social que ordenaba a todas las agencias del gobierno dejar de usar Anthropic de forma inmediata. Las palabras exactas fueron duras — llamó a la empresa "izquierdista" y "woke." El Secretario de Defensa Pete Hegseth fue un paso más lejos: declaró a Anthropic un "riesgo en la cadena de suministro" — una etiqueta que normalmente se reserva para empresas o países considerados adversarios, como China o Rusia — y que impide a cualquier contratista del ejército hacer negocios con ellos. ABC News

Horas después, Sam Altman, el CEO de OpenAI, anunció en X que su empresa acababa de firmar un acuerdo con el Pentágono para llenar exactamente ese espacio que dejó Anthropic.

Hasta aquí parecía una victoria para OpenAI y una derrota aplastante para Anthropic.

Pero entonces llegó el giro.

El giro que nadie esperaba

El mismo Altman admitió que el acuerdo fue "definitivamente apresurado" Dataconomy — y que las apariencias no se veían bien. Y luego llegó la información que convirtió toda la historia en algo mucho más extraño: según reportes, el ejército estadounidense siguió usando Claude durante el fin de semana en ataques militares contra Irán, incluso después de que Trump ordenara cortar toda relación con Anthropic. NBC News

Es decir: el gobierno corrió públicamente a Anthropic, contrató a su competidor en horas — pero siguió usando a Anthropic en operaciones reales.

¿Y OpenAI negoció mejores condiciones?

Esta es la pregunta del millón. Altman publicó que el acuerdo de OpenAI incluye las mismas restricciones que Anthropic pedía — sin vigilancia masiva doméstica y con humanos responsables del uso de la fuerza. CNN Lo que nadie entiende todavía es por qué el gobierno aceptó esas condiciones de OpenAI y no de Anthropic.

Anthropic, por su parte, dijo que amenazaba con demandar la designación de "riesgo en la cadena de suministro" por considerarla legalmente indefendible y un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno. NPR

¿Por qué importa esto si vivo en México o Colombia?

Porque las reglas que se establezcan aquí definirán cómo se usa la IA en todo el mundo. Si los gobiernos pueden forzar a las empresas de IA a quitar sus límites de seguridad, eso significa que las mismas herramientas que usas para trabajar, aprender o crear podrían ser usadas para vigilar poblaciones sin restricciones. El principio que Anthropic defendió — que hay cosas que la IA no debe hacer aunque el cliente sea el gobierno — es el mismo principio que protege a usuarios comunes como tú.

Además, la reacción del público fue inmediata: Claude subió al número 1 en el App Store de Apple y se extendió en redes un movimiento para cancelar ChatGPT Dataconomy — millones de personas votando con su descarga de app en favor de la empresa que dijo "no."

📌 Fuente: NBC News, NPR, CNN, ABC News, Fortune, Federal News Network

🗣️ Frase Inteligente del Día

América no puede tener a sus soldados tomados como rehenes por los caprichos ideológicos de las Big Tech."

Pete Hegseth, Secretario de Defensa de EE.UU., al anunciar la designación contra Anthropic.

💡 ¿Qué puedes hacer hoy con IA?

Esta historia no es solo política — te da información práctica para ser un usuario de IA más consciente. Aquí van pasos reales:

1. Conoce los "términos de uso" de la IA que usas Cada herramienta de IA tiene reglas sobre qué puede y qué no puede hacer. Busca en Google: "[nombre de la IA] terms of use" o "política de uso aceptable." Saber esto te protege.

2. Diversifica tus herramientas No dependas de una sola IA para todo. Ten Claude para unas cosas, ChatGPT para otras. Si una cae o cambia sus condiciones, no te quedas sin nada.

3. Reflexiona sobre tus datos Cuando usas una IA, estás dándole información. Pregúntate: ¿qué tan sensible es lo que comparto? Evita meter contraseñas, datos bancarios o información muy privada en cualquier chat de IA.

4. Mantente informado sin alarmarte Estas peleas entre empresas y gobiernos son normales en toda industria nueva. La IA no desaparece — se regula. Y tu trabajo es entender esas reglas para aprovechar mejor las herramientas.

🔧 Tip del Día

Te¿Quieres saber si una noticia de IA es real o exagerada? Pregúntale directamente a Claude o ChatGPT: "¿Puedes ayudarme a evaluar si esta noticia sobre IA es precisa? [pega el titular]" Las IAs son bastante buenas para señalar cuando algo está exagerado o mal contextualizado. Úsalas como tu primer filtro.xto

💼 Herramientas Recomendadas

Perplexityperplexity.ai

Esta semana Perplexity publicó en código abierto los modelos de búsqueda que usan internamente — y superan a Google y Alibaba en precisión. Pero lo que más te interesa como usuario: Perplexity es el mejor lugar para buscar noticias recientes con fuentes verificables. Si quieres seguir el drama Anthropic/Pentágono en tiempo real, úsalo. Es gratis.

🤖 Prompt del Día:

“Prompt”Copia y pega esto en Claude o ChatGPT:

"Soy un profesional que usa IA en mi trabajo diario. Quiero entender: ¿qué información nunca debo compartir con una IA? ¿Cuáles son los riesgos reales de privacidad al usar herramientas como Claude o ChatGPT? Dame consejos prácticos y concretos."

🖼️ Imagen del Día:

Hoy la imagen tiene que reflejar algo más grande que una simple noticia de negocios. Esto fue una pelea de principios — entre el poder del gobierno y el principio de que la tecnología tiene límites. Quiero una imagen que transmita esa tensión: una balanza, una decisión, un punto de inflexión. Algo visual que cualquier persona sienta aunque no sepa nada de IA ni de política.

⚡ Ráfagas IA

💰 OpenAI recauda $110,000 millones de dólares Amazon invirtió $50,000 millones, Nvidia y SoftBank $30,000 millones cada uno, llevando la valuación de OpenAI a $730,000 millones TechCrunch — la ronda privada más grande en la historia de la tecnología. Para ponerlo en perspectiva: eso es más que el PIB de países como Ecuador o Guatemala juntos.

🔴 Jack Dorsey despidió a 4,000 personas — y culpó a la IA Block, la empresa detrás de Square y Cash App, redujo su plantilla en un 40%. Dorsey dijo que equipos más pequeños con herramientas de IA pueden hacer más y mejor. CNN Las acciones subieron 23% ese mismo día. El debate: ¿es la IA la razón real o es un pretexto conveniente?

🤖 Andrej Karpathy: "programar ya es irreconocible" Uno de los investigadores más respetados en IA — cofundador de OpenAI y ex Tesla — dijo esta semana que estamos al final de la era de escribir código. Los programadores del futuro no escriben líneas — le dicen a la IA qué construir.

Este fue un lunes cargado. Mucho para procesar.

Lo que me quedo de hoy: a veces las decisiones más importantes no las toman los que tienen más dinero — las toman los que deciden dónde está su límite. Eso aplica para empresas y también para personas.

Cuídate mucho, y nos leemos mañana.

— Julius

Reply

Avatar

or to participate

Keep Reading