💬

Buen lunes.

Hoy quiero contarte algo que cambió la semana pasada mientras muchos estábamos de vacaciones.

China acaba de hacer historia en IA.

Y no, no es otro modelo "casi tan bueno" o "prometedor". Es un modelo open-source que supera a Claude Sonnet 4.5 en varias pruebas de código real. El primero de su tipo.

Se llama GLM-4.7, y lo puedes usar gratis ahora mismo.

Mientras OpenAI, Anthropic y Google pelean por quién cobra más por sus modelos, Z.ai (la startup china respaldada por Alibaba) acaba de demostrar que la IA de élite ya no es exclusiva de Silicon Valley.

¿Por qué importa esto?

Porque cambia las reglas del juego. La carrera de la IA ya no es solo entre empresas estadounidenses. Es global. Y ahora es open-source.

Vamos a ver qué significa esto para ti.

But what can you actually DO about the proclaimed ‘AI bubble’? Billionaires know an alternative…

Sure, if you held your stocks since the dotcom bubble, you would’ve been up—eventually. But three years after the dot-com bust the S&P 500 was still far down from its peak. So, how else can you invest when almost every market is tied to stocks?

Lo and behold, billionaires have an alternative way to diversify: allocate to a physical asset class that outpaced the S&P by 15% from 1995 to 2025, with almost no correlation to equities. It’s part of a massive global market, long leveraged by the ultra-wealthy (Bezos, Gates, Rockefellers etc).

Contemporary and post-war art.

Masterworks lets you invest in multimillion-dollar artworks featuring legends like Banksy, Basquiat, and Picasso—without needing millions. Over 70,000 members have together invested more than $1.2 billion across over 500 artworks. So far, 25 sales have delivered net annualized returns like 14.6%, 17.6%, and 17.8%.*

Want access?

Investing involves risk. Past performance not indicative of future returns. Reg A disclosures at masterworks.com/cd

🧠 ¿Cómo te ayuda la IA hoy?

Hoy la IA te ayuda a entender que:

La mejor tecnología no siempre viene del lugar más obvio. GLM-4.7 demuestra que modelos open-source (gratis, públicos, modificables) pueden competir con los sistemas más caros del mundo.

Esto significa:

  • Puedes acceder a IA de nivel "frontier" sin pagar suscripciones premium

  • Desarrolladores tienen alternativas reales a Claude/GPT para código

  • La innovación en IA ya no depende solo de 3-4 empresas estadounidenses

En otras palabras: La IA se está democratizando de verdad, no solo en teoría.

📰 La Noticia de IA del Día

CHINA LANZA GLM-4.7: EL PRIMER MODELO OPEN-SOURCE QUE SUPERA 70% EN CÓDIGO REAL

El 22 de diciembre, mientras muchos preparaban las fiestas, la startup china Z.ai lanzó GLM-4.7, un modelo de inteligencia artificial que acaba de hacer historia: es el primer modelo open-source creado en China que supera el 70% en SWE-bench Verified, la prueba más rigurosa para medir si un modelo puede arreglar bugs reales de GitHub.

Los números que importan:

📊 73.8% en SWE-bench Verified - La prueba que mide si un modelo puede resolver problemas de código del mundo real (no ejercicios académicos). GPT-4 está en 48%, DeepSeek-V3.2 en 73.1%.

📊 84.9% en LiveCodeBench - Supera a Claude Sonnet 4.5 (que está en ~82%) en generación de código

📊 66.7% en SWE-bench Multilingual - Un salto brutal de +12.9% vs su versión anterior, demostrando que funciona en múltiples lenguajes de programación

📊 200K tokens de contexto - Puede "leer" archivos de código enormes sin perder el hilo

¿Qué hace diferente a GLM-4.7?

No es solo "otro modelo chino intentando competir". GLM-4.7 introduce algo llamado "Preserved Thinking" - básicamente, el modelo "recuerda" su propio razonamiento entre mensajes en una conversación larga.

Imagina que estás depurando un código complejo que requiere 20 mensajes de ida y vuelta. Modelos normales "olvidan" su lógica anterior y se contradicen. GLM-4.7 mantiene coherencia.

¿Por qué pasó en China?

Z.ai es respaldado por Alibaba y está a punto de salir a bolsa en Hong Kong (se espera que levante $300M en enero). Pero lo interesante es que liberaron los pesos del modelo completamente gratis en Hugging Face.

No hay truco. No hay versión "limitada". Es el modelo completo, listo para usar.

¿Dónde lo puedes usar YA?

  • Claude Code - Integración directa (lo que significa que puedes comparar GLM-4.7 vs Claude Sonnet en la misma herramienta)

  • Cline, Roo Code, Kilo Code - Todos los editores agénticos populares

  • API de Z.ai - Directamente desde su plataforma

  • Local con vLLM o SGLang - Si tienes hardware, lo corres en tu propia máquina

La competencia reacciona:

Este lanzamiento pone presión sobre OpenAI, Anthropic y Google. ¿Por qué? Porque GLM-4.7 demuestra que:

  1. Open-source puede ser frontier - Ya no hay excusa de "necesitamos cerrar el modelo por seguridad"

  2. China está alcanzando rápido - Y con inversión real ($300M en IPO)

  3. El acceso a chips avanzados no lo es todo - Incluso con restricciones de exportación de chips NVIDIA, China está produciendo modelos competitivos

El contexto más grande:

En 2024, veíamos a China "intentando alcanzar". En 2025, están compitiendo de frente.

DeepSeek-V3, Kimi K2, y ahora GLM-4.7 no son "alternativas baratas" a GPT o Claude. Son competencia real.

Y todos son open-source.

¿POR QUÉ IMPORTA?

Para desarrolladores: Ahora tienen opciones reales. Ya no es "GPT o Claude o nada". Pueden usar GLM-4.7 gratis, modificarlo, integrarlo a sus productos sin pagar por token.

Para empresas: Modelos competitivos open-source significan menos dependencia de proveedores estadounidenses. Más control, menos costos.

Para el futuro de la IA: Si China puede producir modelos frontier open-source, Silicon Valley ya no puede justificar precios premium solo por "ser los mejores". La competencia real ha llegado.

Para ti como usuario: Más opciones, mejores precios, y acceso a tecnología de punta sin barreras.

La ironía: Mientras Nvidia gastaba $20 mil millones comprando tecnología de Groq para mantenerse relevante, China liberaba GLM-4.7 completamente gratis.

🗣️ Frase Inteligente del Día

AGI es un viaje largo, y los benchmarks son solo una forma de evaluar el desempeño. Las métricas son puntos de control necesarios, pero lo más importante sigue siendo cómo se siente. La verdadera inteligencia no es solo superar un examen o procesar datos más rápido; el éxito de la AGI se medirá por qué tan fluida es su integración a nuestras vidas."

Z.ai Team, en el anuncio oficial de GLM-4.7

💡 ¿Qué puedes hacer hoy con IA?

Si trabajas con código o quieres experimentar con IA de nivel frontier sin pagar, aquí está tu plan de acción:

PASO 1: Prueba GLM-4.7 en Claude Code (5 minutos)

  1. Abre Claude Code en tu terminal

  2. Ve a configuración de modelo

  3. Selecciona GLM-4.7 de la lista de modelos disponibles

  4. Prueba con un prompt: "Revisa este archivo [nombre.py] y sugiere optimizaciones de rendimiento"

  5. Compara los resultados con Claude Sonnet 4.5

Por qué esto importa: Puedes ver en tiempo real si GLM-4.7 realmente compite con Claude en TU código.

PASO 2: Experimenta con "Preserved Thinking" (10 minutos)

  1. Inicia una sesión larga de depuración (elige un bug complejo)

  2. Dale contexto a GLM-4.7 sobre el problema

  3. Pídele que "piense en voz alta" antes de dar soluciones

  4. Después de 5-6 mensajes, pregúntale: "¿Qué estrategia has seguido hasta ahora?"

  5. Nota cómo mantiene coherencia (a diferencia de modelos que "reinician" su lógica)

Lo que estás probando: La capacidad de razonamiento multi-turno que hace a GLM-4.7 especial.

PASO 3: Compara costos (si eres empresa/freelancer)

  • Claude Sonnet 4.5: ~$3 por millón de tokens input

  • GPT-5.2 Codex: ~$5 por millón de tokens input

  • GLM-4.7 (Z.ai API): ~$0.43 por millón de tokens input (87% más barato)

  • GLM-4.7 (self-hosted): $0 (solo costos de servidor)

Haz la cuenta: Si procesas 10M de tokens al mes en desarrollo, estás ahorrando ~$26/mes solo cambiando de modelo.

🔧 Tip del Día

"No juzgues un modelo solo por sus benchmarks"

GLM-4.7 puede tener 73.8% en SWE-bench, pero eso no significa que sea mejor que Claude para TU caso de uso específico.

Pruébalo en tareas reales:

  • Si trabajas con JavaScript/TypeScript, compara cómo maneja React vs Claude

  • Si haces data science, prueba cómo optimiza pandas vs GPT

  • Si escribes documentación, ve cuál genera mejores comentarios de código

Los benchmarks te dicen "qué tan bueno es en promedio". Las pruebas reales te dicen "qué tan bueno es para MÍ".

Regla práctica: Dedica 1 hora probando GLM-4.7 en tu trabajo real antes de decidir si lo adoptas.

💼 Herramientas Recomendadas

1. GLM-4.7 en Claude Code

  • 🔗 Integración directa en claude.ai/code

  • 💰 Gratis para probar, $3/mes plan completo

  • ⚡ Usa: Cuando necesites código multi-archivo o depuración compleja

2. Z.ai API Platform

  • 💰 Pay-as-you-go desde $0.43/M tokens

  • ⚡ Usa: Si quieres integrar GLM-4.7 a tus propias apps

3. Unsloth para GLM-4.7 Local

🤖 Prompt del Día:

"Modo Code Review Exhaustivo con GLM-4.7"

Actúa como un senior engineer revisando este código para producción.

Archivo: [pega tu código aquí]

Analiza:
1. Bugs obvios o edge cases no manejados
2. Vulnerabilidades de seguridad (inyección, XSS, etc.)
3. Problemas de rendimiento (loops innecesarios, memory leaks)
4. Mejoras de legibilidad (nombres de variables, comentarios faltantes)
5. Patrones de diseño que podrían simplificar el código

Para cada issue:
- Explica POR QUÉ es un problema
- Da código refactorizado específico
- Prioriza: CRÍTICO / IMPORTANTE / NICE-TO-HAVE

Piensa paso a paso antes de dar feedback.

Por qué funciona: Este prompt activa el "Preserved Thinking" de GLM-4.7 y te da un code review estructurado como lo haría un humano senior.

Dónde usarlo: Claude Code, Cline, o directamente en Z.ai API

🖼️ Imagen del Día:

Mientras Silicon Valley construye muros con modelos cerrados y precios premium, China abre puertas con open-source de nivel frontier. Es la historia de David vs Goliat, pero en versión tecnológica.

💡La carrera de la IA ya no es entre empresas. Es entre filosofías: ¿quién controla el futuro de la inteligencia artificial?

⚡ Ráfagas IA

🤖 OPENAI BUSCA "HEAD OF PREPAREDNESS" PARA IA AUTO-MEJORADA OpenAI publicó una vacante para liderar "preparedness" en sistemas que pueden "self-improve" (auto-mejorarse). El rol incluye planificar para modelos que superen capacidades humanas. Señal clara: OpenAI está tomando AGI muy en serio. La pregunta incómoda: ¿qué significa "prepararse" para IA que se mejora a sí misma?

⚙️ CURSOR COMPRA GRAPHITE Cursor (el editor de código con IA) adquirió Graphite, plataforma de code review. La integración permitirá que IA revise tu código antes de que llegue a tus compañeros. Menos pull requests rechazados, más tiempo para programar. Disponible pronto en Cursor.

📊 CLAUDE OPUS 4.5 PUEDE TRABAJAR 5 HORAS SEGUIDAS METR (firma de evaluación de IA) publicó análisis mostrando que Claude Opus 4.5 completa tareas que requieren casi 5 horas de trabajo humano. Es el modelo con mayor "duración de tarea" probado hasta ahora. Implicación: agentes AI están listos para trabajo complejo, no solo tareas simples.

🎨 MINIMAX LANZA M2.1 PARA DESARROLLO MÓVIL Alibaba-backed MiniMax liberó M2.1, optimizado para crear apps móviles y web. Soporta múltiples lenguajes de programación y frameworks modernos. Otra señal de que China está invirtiendo fuerte en IA para desarrolladores.

GLM-4.7 no es solo "otro modelo chino".

Es una señal de que las reglas cambiaron.

Durante años, la narrativa era simple: Silicon Valley innova, el resto copia. Pero 2025 nos mostró algo diferente. China no está copiando. Está compitiendo. Y en algunos casos, está ganando.

Lo más importante no son los benchmarks. Es la filosofía.

Mientras OpenAI, Anthropic y Google cierran sus modelos y suben precios, Z.ai libera GLM-4.7 completamente. Sin restricciones. Sin "versión limitada". Todo el modelo, gratis.

Eso es democratización real.

No sé si GLM-4.7 es "mejor" que Claude o GPT para tu caso de uso. Pero sé que ahora tienes la opción de probarlo y decidir.

Y eso, en sí mismo, ya es una victoria.

¿Ya lo probaste? Cuéntame qué tal te fue.

Nos leemos mañana,
Julius

P.D. - Si esto te sorprendió tanto como a mí, compártelo. Mucha gente todavía cree que la IA de punta solo viene de Estados Unidos. Ya es hora de actualizar esa idea.

Reply

or to participate