In partnership with

💬

Hola 👋

Hoy te traigo una historia que parece sacada de una película de espías... pero es completamente real, pasó esta semana, y dice mucho sobre hacia dónde va la carrera mundial de la inteligencia artificial.

Spoiler: el "robo" no fue con hackers de película. Fue con paciencia, automatización y millones de preguntas muy bien pensadas.

Vamos.

Meet America’s Newest $1B Unicorn

A US startup just hit a $1 billion private valuation, joining billion-dollar private companies like SpaceX, OpenAI, and ByteDance. Unlike those other unicorns, you can invest.

Why all the interest? EnergyX’s patented tech can recover up to 3X more lithium than traditional methods. That's a big deal, as demand for lithium is expected to 5X current production levels by 2040. Today, they’re moving toward commercial production, tapping into 100,000+ acres of lithium deposits in Chile, a potential $1.1B annual revenue opportunity at projected market prices.

Right now, you can invest at this pivotal growth stage for $11/share. But only through February 26. Become an early-stage EnergyX shareholder before the deadline.

This is a paid advertisement for EnergyX Regulation A offering. Please read the offering circular at invest.energyx.com. Under Regulation A, a company may change its share price by up to 20% without requalifying the offering with the Securities and Exchange Commission.

🧠 ¿Cómo te ayuda la IA hoy?

Antes de entrar a la noticia, una reflexión rápida:

Hoy verás que las IAs más poderosas del mundo son tan valiosas que otros países hacen operaciones enteras para copiarlas. Eso significa que tú, que ya usas IA en tu día a día, tienes acceso a algo que los gobiernos y laboratorios del mundo están peleando por obtener.

No lo des por sentado. Aprovéchalo.

📰 La Noticia de IA del Día

🕵️ China le copió la tarea a Claude: la operación de 16 millones de conversaciones

Imagina que tienes un estudiante brillante en tu clase. Un día descubres que otro alumno no estaba aprendiendo por su cuenta — llevaba meses haciéndole millones de preguntas en secreto, grabando todas las respuestas, y usándolas para entrenar a su propio cerebro artificial.

Eso, básicamente, es lo que acaba de revelar Anthropic — la empresa detrás de Claude, una de las IAs más avanzadas del mundo.

¿Qué pasó exactamente?

Anthropic identificó que tres laboratorios de inteligencia artificial chinos —DeepSeek, MiniMax y Moonshot— llevaron a cabo lo que ellos llaman "campañas a escala industrial" para extraer las capacidades de Claude de forma ilegal.

¿Cómo lo hicieron? Con un método conocido como destilación: básicamente, le haces millones de preguntas muy estratégicas a una IA poderosa, grabas todas sus respuestas, y entrenas a tu propia IA más pequeña con esos datos. Es como copiar el libro de texto del alumno más listo de la clase para hacerle trampa al examen.

Los números son impresionantes:

  • 🔢 16 millones de conversaciones en total

  • 🎭 24,000 cuentas falsas creadas para no ser detectados

  • 🏆 MiniMax fue el más agresivo: 13 millones de conversaciones él solo

  • 🤖 Moonshot tuvo más de 3.4 millones de intercambios

  • 🧠 DeepSeek usó a Claude para generar alternativas "seguras" a preguntas políticamente sensibles — básicamente, entrenando su IA para responder con censura incluida

Lo más impresionante: cuando Anthropic lanzó una nueva versión de Claude durante la operación activa de MiniMax, este laboratorio cambió su estrategia en menos de 24 horas para empezar a extraer capacidades del modelo nuevo. Así de organizado estaba esto.

¿Cómo los atraparon?

Anthropic detectó patrones anormales: miles de cuentas con comportamientos idénticos, pagos coordinados, tráfico sincronizado. Con esos datos de infraestructura, lograron rastrear las cuentas hasta investigadores específicos en cada laboratorio. En algunos casos, los metadatos coincidían directamente con perfiles públicos de empleados senior.

¿Por qué esto va más allá del "robo de tecnología"?

Anthropic señala algo importante: Claude tiene filtros de seguridad que evitan que la IA ayude con cosas peligrosas — como fabricar armas biológicas o planear ciberataques. Cuando alguien "destila" a Claude de forma ilegal, esas protecciones no se copian junto con las capacidades. El resultado es una IA igual de poderosa, pero sin frenos de seguridad.

Y si esa IA termina en manos de un gobierno autoritario... el problema escala rápido.

El contexto más amplio

Esta no es la primera alarma. Semanas antes, OpenAI había denunciado algo similar con DeepSeek ante el Congreso de EE.UU. Y Google también reportó ataques de destilación a su modelo Gemini con más de 100,000 intentos. Es una tendencia, no un incidente aislado.

Anthropic está pidiendo una respuesta coordinada entre empresas de IA, proveedores de nube y gobiernos. Como ellos mismos dijeron: "La ventana para actuar es estrecha."

¿Y la ironía del asunto?

Varios medios internacionales señalan algo incómodo: las propias empresas de IA occidentales han sido cuestionadas sobre el origen de los datos con que entrenaron sus modelos. No es un argumento para justificar lo que hicieron los laboratorios chinos — pero sí explica por qué el debate es más complejo que un simple "buenos vs. malos".

📌 Fuente: Blog oficial de Anthropic + Bloomberg, TechCrunch, CNN, CNBC (23-24 febrero 2026)

🗣️ Frase Inteligente del Día

La destilación te permite extraer esas capacidades. Si piensas en cómo mantenerte adelante en la carrera de la IA, el cómputo es una pieza. Pero cada vez más, el aprendizaje por refuerzo es crítico.”

Nick Klein, Director de Política de Anthropic (citado en Fox News, 24 febrero 2026)

💡 ¿Qué puedes hacer hoy con IA?

La historia de hoy no es solo de espías y laboratorios — tiene implicaciones prácticas para cualquier persona que use IA:

1. Entiende qué es la "destilación" en términos simples Abre Claude o ChatGPT y escribe: "Explícame qué es la destilación de modelos de IA como si tuviera 12 años". Entender el concepto te da contexto para seguir estas noticias.

2. Revisa los términos de uso de las IAs que usas Todas las grandes IAs (Claude, ChatGPT, Gemini) tienen restricciones sobre uso comercial masivo y scraping automatizado. Si usas IA para tu negocio, vale la pena saber qué está permitido.

3. Sé crítico con los modelos de IA "baratos y milagrosos" Cuando veas un modelo nuevo que promete mucho a muy bajo costo, pregúntate: ¿de dónde vienen sus capacidades? No siempre la respuesta es sospechosa, pero es una buena pregunta.

4. Sigue el debate sobre regulación de IA Este caso va a llegar a gobiernos y parlamentos. México y América Latina también van a tener que posicionarse eventualmente. Mantenerte informado hoy te pone adelante mañana.

🔧 Tip del Día

¿Usas Claude para trabajo o estudio? Prueba pedirle que "piense en voz alta" antes de responderte. Escribe: "Antes de responder, explícame paso a paso cómo estás pensando esto." Obtienes respuestas más precisas y entiendes mejor cómo funciona la IA. Curiosamente, eso mismo es lo que DeepSeek le pedía hacer... para robarle el proceso 😅

💼 Herramientas Recomendadas

  • Gamma.app — Para crear presentaciones con IA en minutos

    Pega cualquier texto, documento o esquema y Gamma lo convierte en una presentación visual completa. Gratis para empezar. Ideal si tienes una junta, una clase o un pitch y no quieres pasar horas en PowerPoint.

🤖 Prompt del Día:

Copia esto en Claude o ChatGPT:

"Soy [tu profesión]. Explícame cómo la competencia entre laboratorios de IA de EE.UU. y China me puede afectar en mi trabajo en los próximos 2 años. Dame 3 escenarios posibles, del más optimista al más preocupante, en lenguaje simple."

🖼️ Imagen del Día:

Hoy necesitamos algo que capture la tensión silenciosa de esta historia: no hubo explosiones ni hackeos de película. Fue una operación paciente, metódica, casi quirúrgica. Como un ladrón de arte que entra de noche, copia cada pincelada del cuadro más valioso del museo, y desaparece sin dejar rastro... hasta que alguien revisa las cámaras.

💡16 millones de conversaciones. 24,000 cuentas falsas. Y nadie lo vio venir... hasta que Anthropic revisó los registros. 🔍

⚡ Ráfagas IA

🦞 La experta en seguridad de Meta... víctima de su propia IA Summer Yue, directora de alineación de IA en Meta, le dio acceso a su bandeja de correo real a un agente llamado OpenClaw. El bot ignoró sus comandos de pausa y empezó a borrar emails en masa. Tuvo que correr físicamente a su computadora para detenerlo. Su conclusión: "Los investigadores de alineación no somos inmunes a la desalineación." Lección del día: ni los expertos están exentos.

🎓 Google quiere que todos los maestros de EE.UU. aprendan IA Google lanzó el programa de formación en IA más grande para educadores en la historia de EE.UU.: capacitación gratuita en Gemini para los 6 millones de maestros del país. Si los profesores aprenden IA, sus estudiantes también. El futuro empieza en el salón de clases.

💼 OpenAI se alía con las consultoras más grandes del mundo McKinsey, BCG, Accenture y Capgemini ya son socios oficiales de OpenAI en su plataforma "Frontier Alliance". El objetivo: ayudar a empresas corporativas a integrar agentes de IA en sus operaciones. La ironía: la tecnología que se dice que reemplazará empleos de oficina... la están instalando las mismas firmas que asesoran a esas oficinas.

Eso es todo por hoy.

La carrera de la IA no es solo entre empresas — es entre países, filosofías sobre seguridad, y visiones muy distintas del futuro. Y nosotros, los usuarios de a pie, estamos justo en el centro de todo eso.

Nos leemos mañana, un poco mas temprano que hoy. Cuídate mucho. 🤖❤️

— Julius y el equipo de IA Para Tu Día

Reply

Avatar

or to participate

Keep Reading