💬

Hoy es viernes, primero de mayo.

Y hay una historia que resume bien la semana: la de alguien que dice no querer algo, pero no puede soltarlo.

No es una historia de tecnología. Es una historia de poder.

La Casa Blanca lleva meses en guerra pública con Anthropic. Hay una batalla legal activa. Hay declaraciones fuertes. Esta semana, el Secretario de Guerra Pete Hegseth llamó al CEO de Anthropic "un lunático ideológico" en declaraciones públicas.

Y sin embargo... el mismo gobierno está tratando de asegurarse acceso exclusivo al modelo de IA más poderoso que Anthropic ha creado.

Se llama Mythos. Y al parecer, una vez que lo ves funcionar, es difícil fingir que no lo quieres.

Hoy te explico qué pasó, qué significa para ti y qué observar...

— Julius

🧠 ¿Cómo te ayuda la IA hoy?

Imagina que hay un chef que cocina el mejor mole del país. Tú tienes un pleito con él — es público, hay demandas, sale en los periódicos. Pero cuando llega la boda de tu hijo, mandas a alguien de confianza a pedirle que cocine de todas formas, en secreto, solo para tu familia.

Eso, en esencia, es lo que está pasando entre el gobierno de Estados Unidos y Anthropic.

La política dice una cosa. El interés estratégico dice otra. Y en medio de ese conflicto, lo que de verdad está en disputa no es una empresa ni una ideología — es el acceso a una herramienta que ya nadie quiere quedarse sin tener.

Eso es lo que la IA está haciendo hoy: volverse tan valiosa que hasta sus críticos la necesitan.

📰 La Noticia de IA del Día

El gobierno quiere Mythos — pero no quiere admitirlo

Anthropic tiene un modelo de IA llamado Mythos. No está disponible para el público general. Es un modelo de uso restringido con capacidades avanzadas en ciberseguridad — suficientemente poderoso para que el Pentágono lo haya clasificado como riesgo en la cadena de suministro y haya iniciado una disputa legal con la empresa.

Esa pelea sigue activa. Pero esta semana, Bloomberg y The Wall Street Journal reportaron que la dinámica interna está cambiando.

Lo que pasó:

Anthropic quería ampliar el acceso privado a Mythos: pasar de aproximadamente 50 empresas autorizadas a casi 120. La Casa Blanca bloqueó esa expansión, según reportes de Bloomberg y WSJ, argumentando que el mayor número de usuarios privados podría reducir la capacidad de cómputo disponible para el gobierno mismo.

En paralelo, la administración Trump prepara un memorándum de seguridad nacional que, según Axios, buscaría permitir a las agencias gubernamentales acceder a Mythos a pesar de la designación de riesgo en cadena de suministro — básicamente, crear una excepción legal para ellos mismos.

¿Por qué el cambio de tono?

Porque Mythos alcanzó un nivel de capacidades cibernéticas que hace difícil ignorarlo. El Instituto de Seguridad en IA y el ex "zar de IA" David Sacks señalaron esta semana que GPT-5.5 de OpenAI llegó a capacidades similares — y Sacks estimó públicamente en X que todos los modelos de frontera alcanzarán ese nivel en seis meses.

Dicho en simple: la ventana para tener acceso exclusivo a esa tecnología se está cerrando rápido. El gobierno quiere estar dentro antes de que eso pase.

La contradicción política:

El Secretario de Guerra Pete Hegseth declaró el jueves que Anthropic es una empresa "dirigida por un lunático ideológico". Esas palabras coexisten, en este momento, con los intentos del mismo gobierno de asegurar acceso preferencial al producto de esa empresa.

Es una contradicción que dice más sobre cómo funciona el poder que sobre la IA misma.

¿POR QUÉ IMPORTA?

🧠 ¿Qué decisión revela esto?

Para quién

Lo que esto revela

Empresas

Los modelos de IA más capaces se están volviendo activos estratégicos — no solo herramientas. Quien tenga acceso, tiene ventaja.

Universidades

La IA en ciberseguridad ya no es académica — está en el centro de la geopolítica real.

Profesionales

El debate ya no es "si usar IA" sino "quién controla el acceso a la más poderosa".

Personas

Esto define qué herramientas estarán disponibles para el público — y cuáles quedarán reservadas.

Si eres usuario

No tienes acceso a Mythos y probablemente no lo tendrás pronto. Pero lo que sí puedes hacer es observar: cada vez que un gobierno pelea con una empresa de IA y al mismo tiempo le pide acceso privado, eso te dice algo sobre el nivel real de la tecnología. Úsalo como señal para seguir aprendiendo.

Si lideras un equipo

Esta semana es buen momento para preguntarte: ¿tienes claridad sobre qué modelos usa tu organización y quién controla ese acceso? La dependencia tecnológica sin mapa es un riesgo que ya no es teórico.

📌 Fuentes:

🗣️ Frase Inteligente del Día

Todos los modelos de frontera van a alcanzar ese nivel en seis meses."

David Sacks, ex Zar de IA de la Casa Blanca (abril 2026)

💡 ¿Qué puedes hacer hoy con IA?

  1. Busca "Mythos Anthropic" — no para usarlo, sino para entender qué tipo de capacidades están en juego. La IA en ciberseguridad ya está activa en el mundo real.

  2. Revisa qué herramientas de IA usa tu empresa o equipo — ¿sabes quién las provee, dónde están los datos, qué pasa si el acceso cambia?

  3. Sigue la pista del memorándum de seguridad nacional — cuando los gobiernos empiezan a regular el acceso a modelos específicos de IA, eso afecta qué llega a LATAM y cuándo.

  4. Habla de esto con alguien de tu equipo hoy — no como noticia tech, sino como pregunta estratégica: ¿dependemos de herramientas que no controlamos?

  5. Comparte esta edición con alguien que crea que la IA es solo una moda — esta historia demuestra que ya movió los tableros del poder real.

🔧 Tip del Día

Si usas herramientas de IA para tu negocio y nunca has pensado en qué pasa si ese servicio cambia sus condiciones o se vuelve inaccesible: hoy es buen día para tener un Plan B. No es paranoia — es lo que hacen los equipos que ya vieron esto venir.

💼 Herramientas Recomendadas

Claude Security (Anthropic — Beta pública) Esta semana Anthropic lanzó la beta pública de Claude Security: una herramienta enterprise que usa su modelo Opus 4.7 para escanear bases de código en busca de vulnerabilidades y ayudar a generar parches automáticamente.

Cómo funciona en 3 pasos:

  1. Conectas tu repositorio de código

  2. El modelo analiza el código buscando patrones de vulnerabilidad conocidos

  3. Genera sugerencias de parche con contexto — no solo señala el problema, propone la solución

Para quién es ideal: Equipos de desarrollo que quieren una capa de revisión de seguridad sin contratar un especialista dedicado. En LATAM está disponible vía API de Anthropic — acceso empresarial, no para usuarios individuales aún.

⚠️ Nota: al ser una herramienta de análisis de código, implica que el código es procesado por servidores externos. Revisar las políticas de privacidad antes de conectar código propietario.

🤖 Prompt del Día:

ANALIZA MI DEPENDENCIA TECNOLÓGICA

Actúa como consultor estratégico de tecnología.

Voy a describirte las herramientas digitales principales que usa mi negocio/equipo. Para cada una, ayúdame a evaluar:

1. ¿Qué tan crítica es esta herramienta para operar?
2. ¿Existe una alternativa viable si desaparece o cambia sus condiciones?
3. ¿Hay algún riesgo de dependencia que no estoy viendo?
4. ¿Qué haría un equipo bien preparado diferente a lo que hago hoy?

Mis herramientas principales son:
[lista aquí tus herramientas: ejemplo — ChatGPT para atención al cliente, Notion para proyectos, WhatsApp Business para ventas, Make para automatizaciones]

Quiero una evaluación honesta, no tranquilizadora.

Por qué funciona: La noticia de hoy es sobre dependencia tecnológica a escala de gobiernos. Pero la misma pregunta aplica para cualquier negocio. Este prompt te da un diagnóstico rápido del mapa de riesgo de tus herramientas — antes de que alguien más lo decida por ti.

🖼️ Imagen del Día:

Esta semana terminó con la imagen de dos actores enormes mirándose de lejos, cada uno queriendo algo del otro pero sin querer admitirlo. Quiero capturar esa tensión sin nombres ni banderas — solo la sensación de dos fuerzas que se necesitan y se rechazan al mismo tiempo.

Dos fuerzas que se necesitan — y no pueden admitirlo.

⚡ Ráfagas IA

🚗 Gemini llega a los autos Google comenzó a integrar Gemini en vehículos con Android Auto, reemplazando al Asistente de Google. Puedes pedir cambios de temperatura, navegar, controlar la música y hacer preguntas al manual de tu carro — todo por voz. General Motors habilitará la función en cerca de 4 millones de vehículos desde el año modelo 2022. Google BlogEl copiloto inteligente ya no es ciencia ficción — está en tu carro de hace tres años.

🧌 OpenAI encontró de dónde venían los goblins de ChatGPT Después de que ChatGPT-5.1 lanzara en noviembre, las menciones de "goblin" en conversaciones subieron 175% y las de "gremlin" un 52%. OpenAI rastreó el origen: un ajuste de recompensa en la personalidad "Nerdy" del modelo que se fue filtrando al comportamiento general. Ya lo corrigieron en GPT-5.5, con un prompt específico que prohíbe goblins, gremlins, ogros y... palomas. OpenAI BlogUn pequeño sesgo en una personalidad puede cambiar el comportamiento de millones de conversaciones.

📣 Meta abre su plataforma de anuncios a agentes de IA Meta lanzó un servidor MCP que permite a herramientas de IA como Claude o Cursor gestionar campañas publicitarias en Facebook e Instagram directamente, sin entrar a la plataforma. Facebook BusinessSi manejas anuncios en Meta, muy pronto podrás automatizar toda la gestión desde tu asistente de IA preferido.

OpenAI ya superó su meta de cómputo para 2029 La empresa anunció que ya alcanzó los 10 GW de infraestructura de cómputo que había prometido tener para 2029 — con 3 GW sumados solo en los últimos tres meses. OpenAI BlogLa carrera por la infraestructura de IA se está acelerando a una velocidad que supera todas las proyecciones públicas.

🔐 Elon Musk admitió que xAI usó modelos de OpenAI para entrenar Grok Durante el juicio de OpenAI contra Musk, este declaró bajo juramento que xAI utilizó técnicas de destilación entrenando sobre modelos de OpenAI. TechCrunchEl juicio que Musk inició contra OpenAI está revelando más sobre sus propias prácticas de lo que esperaba.

Despedida

Cerramos esta semana con una lección que aplica igual para gobiernos que para personas: es difícil decir en voz alta que necesitas algo que juraste no necesitar.

La IA llegó a un punto donde ya no es opcional en las decisiones que importan. Eso no significa que debas usarla para todo — significa que si no la entiendes, alguien más la va a usar para tomar decisiones que te afectan a ti.

Esta semana tuvimos poder y tecnología chocando en Washington, asistentes de voz llegando a millones de carros, y una lección inesperada sobre cómo un pequeño sesgo algorítmico puede infectar millones de conversaciones con goblins.

No es un mundo más simple. Pero sí es un mundo más interesante — si sabes leerlo.

Nos vemos el lunes. Que el fin de semana te dé perspectiva.

— Julius y el equipo de IA Para Tu Día

"Sin criterio, la IA amplifica ruido."

Esta semana lo vimos en dos frentes: un gobierno que reacciona al poder de un modelo sin tener una estrategia clara, y un modelo de lenguaje que amplificó goblins por todo el mundo porque nadie revisó un ajuste de recompensa a tiempo. El criterio — humano, intencional, consciente — sigue siendo la variable que más importa.

Reply

Avatar

or to participate

Keep Reading