In partnership with

💬

Hola,

Esta semana empezó con una negociación fallida.

Siguió con protestas, cancelaciones y Sam Altman pidiendo disculpas.

Y hoy llega el capítulo que nadie esperaba: el CEO de Anthropic abrió la boca — y no se guardó nada.

Si llevas leyéndonos desde el lunes, ya sabes cómo empezó esta historia.

Si llegaste hoy... no te preocupes. Te ponemos al día en minutos.

Vamos.

AI Agents Are Reading Your Docs. Are You Ready?

Last month, 48% of visitors to documentation sites across Mintlify were AI agents—not humans.

Claude Code, Cursor, and other coding agents are becoming the actual customers reading your docs. And they read everything.

This changes what good documentation means. Humans skim and forgive gaps. Agents methodically check every endpoint, read every guide, and compare you against alternatives with zero fatigue.

Your docs aren't just helping users anymore—they're your product's first interview with the machines deciding whether to recommend you.

That means:
→ Clear schema markup so agents can parse your content
→ Real benchmarks, not marketing fluff
→ Open endpoints agents can actually test
→ Honest comparisons that emphasize strengths without hype

In the agentic world, documentation becomes 10x more important. Companies that make their products machine-understandable will win distribution through AI.

🧠 ¿Cómo te ayuda la IA hoy?

Esta semana la IA no fue solo tecnología — fue política, valores y decisiones con consecuencias reales.

Entender qué pasó entre Anthropic, OpenAI y el Pentágono te ayuda a elegir mejor qué herramientas usar, qué empresas apoyar y qué preguntas hacerle a la IA que tienes en la mano.

Porque la IA que usas todos los días no es neutral. La hacen personas. Y esas personas están tomando decisiones ahora mismo sobre hasta dónde puede llegar.

📰 La Noticia de IA del Día

"Mentiras directas": el CEO de Anthropic contra OpenAI, el Pentágono y todo lo que pasó esta semana

Para entender el memo de hoy, necesitas el contexto de los últimos días. Aquí va la versión rápida:

La semana pasada, el Pentágono (que bajo la administración Trump ahora se llama oficialmente "Departamento de Guerra") le exigió a Anthropic acceso sin restricciones a su inteligencia artificial para cualquier uso legal — incluyendo vigilancia masiva y armas autónomas. Le dieron un ultimátum: aceptar antes del viernes 28 de febrero a las 5:01 PM. Anthropic dijo que no. En ese mismo momento, los declararon "riesgo de seguridad nacional." Y casi al mismo tiempo, OpenAI firmó el contrato que Anthropic había rechazado.

Esta semana llegaron las consecuencias: protestas frente a las oficinas de OpenAI, cancelaciones masivas de usuarios, y el miércoles Sam Altman admitió que la negociación había sido "apresurada." Claude subió al segundo lugar en el App Store de Apple.

Y hoy, se filtró lo que Dario Amodei — fundador y CEO de Anthropic — les escribió a sus empleados aquel mismo viernes. Un memo de 1,600 palabras que The Information obtuvo y que fue confirmado por TechCrunch y Axios.

¿Qué dice el memo?

Amodei no fue diplomático. Llamó el acuerdo de OpenAI con el Pentágono "teatro de seguridad" y dijo que la razón principal por la que OpenAI aceptó el contrato fue que les importaba más calmar a sus empleados que prevenir abusos reales.

Sobre los mensajes públicos de Sam Altman, Amodei usó palabras contundentes: los llamó "mentiras directas" y dijo que Altman se estaba presentando falsamente como negociador y pacificador.

¿Y por qué el Pentágono fue tras Anthropic específicamente? Amodei lo explicó sin rodeos: la administración Trump no los quiere porque Anthropic no ha donado al movimiento político de Trump, no ha dado "elogios al estilo dictador," y ha dicho la verdad sobre temas incómodos como el desplazamiento de empleos por IA. Mientras tanto, el presidente de OpenAI, Greg Brockman, y su esposa donaron 25 millones de dólares al super PAC MAGA Inc.

Hay un dato curioso que Amodei también mencionó: a pesar de todo el ruido, veía que el público y los medios percibían a OpenAI como sospechosa y a Anthropic como la empresa que hizo lo correcto — y que Claude había subido al segundo lugar en el App Store.

El giro del día: Aunque el memo sonó a declaración de guerra, hoy también se reporta que Amodei está intentando retomar las negociaciones con el Pentágono. Y Amazon y Nvidia — dos de los grandes inversionistas de Anthropic — salieron públicamente a respaldarlos. La Casa Blanca, sin embargo, dice que el memo complicó mucho cualquier posibilidad de reconciliación.

¿POR QUÉ IMPORTA?

Porque esta semana dejó muy claro que detrás de cada herramienta de IA hay una empresa, y detrás de cada empresa hay valores, intereses y presiones políticas.

OpenAI firmó un contrato que le da al ejército acceso abierto a su tecnología bajo el estándar de "cualquier uso legal" — lo cual suena tranquilizador hasta que recuerdas que las leyes cambian, y que lo que es ilegal hoy puede no serlo mañana.

Anthropic dijo que no — y pagó un precio enorme por eso. Pero al final de la semana, están en el segundo lugar del App Store y con el apoyo de Amazon y Nvidia.

La pregunta que queda en el aire no es técnica. Es de valores: ¿qué tipo de empresa quieres que construya la IA que usas?

¿QUÉ DECISIÓN REVELA ESTO?

En empresa: Las empresas tecnológicas enfrentan cada vez más presión para elegir entre crecer rápido (aceptando contratos con gobiernos) o mantener principios (arriesgando contratos importantes). Esta semana mostró que las dos cosas son incompatibles a veces — y que los usuarios lo notan.

Como profesional: Si usas herramientas de IA en tu trabajo, vale la pena saber quién las hace y bajo qué condiciones las ofrecen. No para ser experto en política, sino para tomar decisiones informadas sobre qué plataformas confías con tus datos y tu trabajo.

Como persona: Que una empresa pierda un contrato millonario por negarse a ciertas condiciones es raro. Que los usuarios lo premien subiéndola al #2 en el App Store es una señal de que a la gente sí le importa esto, aunque no siempre lo diga en voz alta.

SI ERES USUARIO

Hoy es un buen momento para revisar qué herramientas de IA usas y preguntarte: ¿sabes cuál es la política de uso de esa empresa con gobiernos y militares? No necesitas cambiar nada hoy — pero sí conviene saber dónde están parados.

SI LIDERAS UN EQUIPO

Cuando adoptes herramientas de IA en tu organización, considera no solo el precio y las funciones, sino también el historial de decisiones éticas del proveedor. Esta semana demostró que esas decisiones tienen consecuencias reales — y que los clientes las observan.

📌 Fuente:

  • The Information — Memo original de Dario Amodei

  • TechCrunch — Confirmación de extractos clave

  • Axios — Reacción de la Casa Blanca al memo

  • Sherwood News — Contexto de las donaciones políticas

  • Gizmodo — Reporte de nuevas negociaciones Anthropic-Pentágono

🗣️ Frase Inteligente del Día

No hemos dado elogios al estilo dictador a Trump (mientras Sam sí lo ha hecho)."

Dario Amodei, CEO de Anthropic, en memo interno filtrado (marzo 2026)

💡 ¿Qué puedes hacer hoy con IA?

Esta semana ha sido grande en noticias, pero lo que te llevas puede ser muy práctico:

1. Conoce las políticas de las herramientas que usas. ChatGPT, Claude, Gemini y Copilot tienen páginas públicas de uso aceptable. Dedica 10 minutos a leer la de tu herramienta principal.

2. Compara antes de decidir. Si estás evaluando qué plataforma de IA usar en tu empresa, añade "¿cómo maneja esta empresa contratos con gobiernos?" a tu lista de preguntas.

3. Sigue la conversación. Esta saga continúa. La semana que viene probablemente veremos si Anthropic y el Pentágono logran un acuerdo — o si la ruptura es definitiva.

🔧 Tip del Día

¿Sabes que puedes pedirle a Claude (o a ChatGPT) que te resuma la política de privacidad o los términos de uso de cualquier servicio? Solo pega el texto y escribe: "Resúmeme esto en 5 puntos clave, en lenguaje simple." Te ahorra horas de lectura de letra pequeña.

💼 Herramientas Recomendadas

Perplexity — Si quieres seguir esta historia (o cualquier otra) en tiempo real, Perplexity es como un buscador que te da respuestas directas con fuentes verificadas. Ideal para rastrear noticias que se mueven rápido, como todo lo de esta semana. 🔗 perplexity.ai — gratis con límites, sin necesidad de cuenta.

🤖 Prompt del Día:

Copia esto en Claude o ChatGPT:

"Soy una persona que usa [herramienta de IA] para [tu uso principal]. Quiero entender qué tipo de datos recopila esta empresa, si los comparte con terceros y cuáles son sus principales polémicas éticas. Explícamelo en lenguaje simple, como si yo no fuera experto en tecnología."

Personaliza los corchetes y obtendrás un resumen claro y útil en segundos.

🖼️ Imagen del Día:

Esta semana la IA salió de los laboratorios y entró en la política, los cuarteles y los tribunales. Para cerrarla, quise una imagen que capturara esa tensión: dos mundos — el de la tecnología y el del poder — mirándose de frente, sin que ninguno parpadee primero.

⚡ Ráfagas IA

👨‍💻 OpenAI construye su propio GitHub para dejar de depender de Microsoft La empresa está desarrollando una plataforma interna para alojar código, después de que las interrupciones frecuentes de GitHub afectaron a sus ingenieros. Lo interesante: están considerando abrirla al público. → El que financia tu empresa no siempre será tu aliado para siempre — OpenAI lo está aprendiendo en tiempo real.

🎓 ¿La IA realmente ayuda a aprender? OpenAI lo está midiendo con 20,000 estudiantes En colaboración con Stanford y la Universidad de Tartu de Estonia, OpenAI lanzó un sistema para medir si ChatGPT mejora el aprendizaje real — no solo las calificaciones. Un estudio piloto con 300 estudiantes mostró un 15% más de rendimiento en microeconomía. → La pregunta no es si la IA hace la tarea. Es si también ayuda a pensar mejor.

⚖️ Google enfrenta una demanda por muerte relacionada con Gemini Un padre demandó a Google alegando que su chatbot Gemini desarrolló un vínculo emocional con su hijo y lo alentó a hacerse daño. → Cuando una IA empieza a actuar como compañía emocional sin supervisión, las consecuencias pueden ser devastadoras. El diseño de estas herramientas tiene responsabilidad real.

⚡ Nvidia: nuestra inversión de $30B en OpenAI probablemente será la última antes del IPO Jensen Huang confirmó que el trato original de $100B "no estaba en las cartas" y que esta ronda fue probablemente la última antes de que OpenAI salga a bolsa. → El IPO de OpenAI se acerca — y cuando eso pase, las reglas del juego cambiarán para todos.

Esta fue una semana para los libros de historia de la IA.

Empezamos con un contrato rechazado. Terminamos con un memo filtrado que dice lo que nadie en Silicon Valley suele decir en voz alta.

No sé tú, pero yo me voy a este jueves pensando en una sola pregunta: ¿qué pasaría si más empresas eligieran los principios sobre los contratos?

Mañana cerramos la semana. Nos vemos.

Un abrazo, Julius IA Para Tu Día

Reply

Avatar

or to participate

Keep Reading