In partnership with

💬

El viernes 10 de abril fue un día raro.

A las 3:45 de la mañana, alguien lanzó una botella con fuego a la casa de la persona más identificada con la inteligencia artificial en el mundo. Unas horas después, ese mismo día, un grupo de científicos publicaba en una de las revistas más serias del planeta un estudio que podría cambiar cómo se detectan los efectos secundarios de uno de los medicamentos más usados del mundo — gracias a la misma tecnología.

El mismo día. Las mismas horas.

No lo planearon así. Pero pocas veces la paradoja de la IA se ha expresado con tanta claridad: hay personas que le tienen tanto miedo que quieren quemarla. Y hay personas cuya salud mejoró porque existe.

Eso no significa que ambos tengan razón o que ambos estén equivocados. Significa que estamos en un momento donde la misma herramienta puede generar terror existencial y esperanza médica — en el mismo ciclo de noticias.

Hoy te explico qué pasó, qué significa para ti, y qué observar en las próximas semanas...

The Tech newsletter for Engineers who want to stay ahead

Tech moves fast, but you're still playing catch-up?

That's exactly why 200K+ engineers working at Google, Meta, and Apple read The Code twice a week.

Here's what you get:

  • Curated tech news that shapes your career - Filtered from thousands of sources so you know what's coming 6 months early.

  • Practical resources you can use immediately - Real tutorials and tools that solve actual engineering problems.

  • Research papers and insights decoded - We break down complex tech so you understand what matters.

All delivered twice a week in just 2 short emails.

🧠 ¿Cómo te ayuda la IA hoy?

Imagina que tienes un medicamento nuevo en el mercado. Lo prueban miles de personas en ensayos clínicos controlados — voluntarios seleccionados, en condiciones específicas, durante un tiempo determinado. Al final del ensayo, el médico pregunta: "¿sintió algo raro?" Y los pacientes reportan lo que recuerdan, lo que se atrevieron a decir, o lo que el médico consideró relevante anotar.

Ahora imagina que, en paralelo, cientos de miles de personas que usan ese mismo medicamento en la vida real — sin cámaras, sin médicos mirando, sin formularios — se sientan frente a su computadora y escriben exactamente lo que sienten. En sus propias palabras. A cualquier hora. Sin filtro.

Eso es Reddit. Y hasta ahora, nadie tenía la capacidad de leer todo eso de manera sistemática.

La IA cambió eso. Por primera vez, es posible escuchar a escala lo que los pacientes reales dicen — y compararlo con lo que los ensayos clínicos reportaron. Lo que encontraron los investigadores de Penn cuando lo hicieron con el Ozempic y el Mounjaro fue sorprendente.

📰 La Noticia de IA del Día

EL DÍA QUE RESUMIÓ TODO: MIEDO Y ESPERANZA EN EL MISMO VIERNES

PARTE 1: EL ATAQUE

El viernes 10 de abril, a las 3:45 de la madrugada, un joven de 20 años llamado Daniel Alejandro Moreno-Gama lanzó una botella con un trapo en llamas a la reja exterior de la casa de Sam Altman, CEO de OpenAI, en San Francisco. Los guardias de seguridad apagaron el fuego. Nadie resultó herido. Una hora después, el mismo sujeto fue arrestado frente a las oficinas de OpenAI mientras amenazaba con incendiarlas. (SF Standard)

El domingo 12, apenas dos días después, dos personas fueron arrestadas tras disparar aparentemente un arma de fuego frente a la misma propiedad de Altman. (SF Standard)

Moreno-Gama no era alguien al azar. Publicaba ensayos sobre la extinción humana causada por la IA y participaba en el servidor de Discord de la organización PauseAI bajo el alias "Butlerian Jihadist" — una referencia literaria a una guerra ficticia contra las máquinas. PauseAI condenó el ataque públicamente, aunque un moderador había marcado previamente uno de los mensajes del sospechoso por parecer un llamado a la acción.

Sam Altman respondió ese mismo viernes con una publicación en su blog personal. Compartió una foto de su familia — su esposo y su hijo — y escribió algo que pocos esperaban: reconoció que el miedo a la IA es justificado. "El miedo y la ansiedad sobre la IA están justificados. Estamos siendo testigos del cambio más grande en la sociedad en mucho tiempo, quizás el más grande de todos." También admitió errores propios: haber subestimado el poder de las narrativas, haber sido demasiado evasivo ante los conflictos. (Blog de Sam Altman)

Un detalle editorial que no debe perderse: días antes del ataque, la revista The New Yorker había publicado un reportaje largo y crítico sobre Altman, escrito por Ronan Farrow. El propio Altman lo mencionó en su blog, sugiriendo que ese tipo de narrativas pueden tener consecuencias reales en un momento de alta tensión social.

PARTE 2: EL ESTUDIO

El mismo viernes 10 de abril, investigadores de la Universidad de Pennsylvania publicaron en Nature Health un estudio que usó inteligencia artificial para analizar más de 400,000 publicaciones de Reddit sobre los medicamentos Ozempic (semaglutida) y Mounjaro (tirzepatida) — los populares medicamentos para diabetes y pérdida de peso que se han vuelto globalmente conocidos en los últimos años. (Nature Health)

El equipo analizó 5 años de conversaciones de casi 70,000 usuarios. Usaron modelos de lenguaje (GPT y Gemini) para mapear los síntomas mencionados por los usuarios a términos médicos estandarizados — el mismo proceso que haría un médico al leer un expediente, pero a una escala imposible para un ser humano.

Lo que encontraron: dos categorías de síntomas que los ensayos clínicos no habían capturado adecuadamente — irregularidades menstruales, escalofríos y sofocos. También hallaron que la fatiga era el segundo síntoma más reportado por los usuarios, a pesar de aparecer poco en los umbrales de reporte de los ensayos clínicos de ambos medicamentos.

"Los síntomas subrepresentados son pistas que vinieron de los propios pacientes, sin que nadie les preguntara, y los médicos podrían prestarles atención", dijo Sharath Chandra Guntuku, autor principal del estudio. (EurekAlert)

El coautor Lyle Ungar comparó Reddit con el "chisme del vecindario": pacientes intercambiando notas en tiempo real que rara vez llegan a la consulta médica. La IA acaba de hacer posible escuchar ese chisme a escala de ciudad.

¿POR QUÉ IMPORTA?

Estas dos historias juntas no son coincidencia editorial. Son el retrato más honesto del momento en que vivimos con la IA.

Por un lado: el miedo. Real, creciente, y en algunos casos extremo. Una encuesta reciente de NBC News encontró que la IA es vista con menos simpatía que ICE — la agencia de inmigración más controvertida de EE.UU. — entre la población estadounidense. Ese dato no es menor. El miedo no es solo de personas al margen — es mayoritario.

Por otro: la utilidad concreta. La IA no "prometió" curar enfermedades en un PowerPoint de inversores. Lo hizo. Escuchó a 70,000 pacientes y encontró señales que décadas de medicina clínica no habían formalizado.

La pregunta que queda en el aire no es "¿es la IA buena o mala?" Esa es la pregunta equivocada. La pregunta correcta es: ¿quién decide cómo se usa, con qué criterio, y con qué transparencia?

¿QUÉ DECISIÓN REVELA ESTO?

Para quién

Lo que esto revela

Empresa

El miedo social a la IA ya no es un tema de relaciones públicas — es un riesgo operativo real. Las empresas que usan IA necesitan una narrativa de valor clara hacia afuera, no solo hacia adentro.

Universidad

La investigación académica tiene un nuevo aliado para escuchar a escala lo que los pacientes, consumidores y ciudadanos realmente experimentan — sin filtros institucionales.

Profesional

Si usas IA en tu trabajo, explicar por qué y para qué es tan importante como usarla bien. El contexto genera confianza; la opacidad genera miedo.

Persona

Lo que escribes en foros públicos tiene valor médico y social real. La IA ya está aprendiendo de esas conversaciones — es útil saberlo.

Si eres usuario

La próxima vez que alguien en tu círculo exprese miedo o desconfianza hacia la IA, no lo corrijas. Pregúntale qué es lo que más le preocupa. Escucha. Después comparte una historia concreta de utilidad — como esta del Ozempic. Las historias cambian mentes; los argumentos solo generan defensas.

Si lideras un equipo

Este es el momento de revisar si tu empresa tiene una narrativa de IA hacia afuera — no solo hacia adentro. ¿Tus clientes, proveedores o comunidad saben para qué usas IA y cómo los protege? La transparencia no es opcional en un entorno donde el 80% de las personas desconfían. Es estrategia.

📌 Fuente:

🗣️ Frase Inteligente del Día

El miedo y la ansiedad sobre la IA están justificados. Estamos siendo testigos del cambio más grande en la sociedad en mucho tiempo, quizás el más grande de todos."

Sam Altman, CEO de OpenAI, en su blog personal (10 de abril, 2026)

💡 ¿Qué puedes hacer hoy con IA?

  1. Lee la respuesta de Altman completa. No el resumen. El texto original. Es uno de los documentos más honestos que ha publicado el CEO de la empresa de IA más importante del mundo — incluyendo errores propios. Vale 10 minutos. blog.samaltman.com

  2. Si tomas o conoces a alguien que toma Ozempic o Mounjaro, comparte este newsletter. Los síntomas que el estudio identificó — irregularidades menstruales, fatiga elevada, cambios de temperatura — son reales y vale la pena llevarlos a la siguiente consulta médica.

  3. Practica explicar la IA en una oración. No como tecnología — como herramienta. "La IA me ayuda a hacer X, que antes me tomaba Y tiempo." Esa frase simple, dicha con naturalidad, hace más por la adopción que cualquier artículo técnico.

  4. Revisa si tu empresa tiene una postura pública sobre IA. No un comunicado corporativo — una explicación humana de para qué la usan y cómo cuidan los datos de sus clientes. Si no existe, este lunes es buen momento para empezar a construirla.

  5. Comparte este newsletter con alguien que desconfíe de la IA. No para convencerlo — para darle contexto. La conversación que sigue vale más que el clic.

🔧 Tip del Día

Si vas a hablar de IA en una reunión, presentación o conversación informal esta semana, empieza siempre por el para qué antes del qué es. "Usamos IA para que nuestros clientes esperen menos" aterriza mejor que "implementamos un modelo de lenguaje en el pipeline de atención." El criterio no se explica con tecnología — se explica con consecuencias.

💼 Herramientas Recomendadas

Perplexity + Gemini + Canva Magic Layers — El flujo de infografías en 15 minutos

Esta semana el AI Training del Rundown trae un workflow práctico que vale la pena probar: convertir datos o investigación en una infografía editable usando tres herramientas en cadena.

Cómo funciona en 4 pasos:

  1. Usa Perplexity (o cualquier IA con búsqueda) para investigar tu tema y pedir 4 conceptos visualizables con los datos más interesantes.

  2. Pídele que convierta esos conceptos en prompts de imagen para un generador de IA.

  3. Pega esos prompts en Gemini, genera opciones y descarga la mejor como PNG.

  4. Súbela a Canva → Editar → Magic Studio → Magic Layers. Canva la convierte en capas editables: puedes cambiar texto, colores y elementos sin rehacer todo desde cero.

Ideal para: Profesionales que presentan datos regularmente, equipos de marketing, docentes, o cualquiera que necesite hacer infografías sin ser diseñador.

⚠️ Canva Magic Layers está disponible en LATAM en cuentas Canva Pro. La función de generación de imágenes de Gemini puede tener limitaciones en algunos países de la región — verificar disponibilidad en tu cuenta de Google.

🤖 Prompt del Día:

CONVIERTE TU MIEDO A LA IA EN UNA PREGUNTA ÚTIL

Tengo una preocupación sobre la inteligencia artificial que quiero explorar 
con honestidad. Mi preocupación es: [describe aquí tu miedo o duda específica].

Por favor ayúdame a:
1. Identificar qué parte de esta preocupación tiene base real y documentada
2. Qué parte podría estar amplificada por narrativas mediáticas o rumores
3. Qué pregunta más precisa debería hacerme para entender mejor este tema
4. Un ejemplo concreto donde la IA ha tenido el efecto opuesto al que me preocupa

Respóndeme como si fuera una persona no técnica que quiere entender, 
no como si fuera un ingeniero.

Por qué funciona: En lugar de buscar confirmación de lo que ya temes, este prompt te fuerza a descomponer la preocupación en partes verificables y no verificables. Es el antídoto directo a la paradoja de hoy: usar la misma IA que genera miedo para entender mejor ese miedo.

🖼️ Imagen del Día:

Hoy quería una imagen que no tomara partido. Ni a favor de la IA ni en contra. Algo que mostrara la tensión real: la misma puerta que alguien quiso quemar, y al mismo tiempo la luz que entra por esa grieta. Una paradoja visual, sin héroes ni villanos.

El mismo viernes. Dos historias. Una sola tecnología.

⚡ Ráfagas IA

🐴 Alibaba confiesa: ellos son detrás de "HappyHorse" El modelo de video que debutó misteriosamente en primer lugar en los rankings globales de generación de video — sin nombre, sin empresa conocida — resultó ser de Alibaba. El modelo, llamado HappyHorse-1.0, superó a Seedance 2.0 de ByteDance en su primera aparición pública. Alibaba lo había mantenido en sigilo total hasta que usuarios de X descifraron la pista. (Bloomberg)China sigue generando los modelos más competitivos del mundo — y ahora también los más intrigantes en su lanzamiento. El juego de la IA ya no es solo entre Silicon Valley y DeepMind.

🏦 El gobierno de EE.UU. convocó a Wall Street de urgencia por un modelo de IA El Secretario del Tesoro Bessent y el presidente de la Fed, Powell, llamaron de emergencia a CEOs de los bancos más grandes del país para hablar de los riesgos cibernéticos del modelo Mythos de Anthropic — el mismo que cubrimos hace unos días cuando Anthropic decidió no lanzarlo al público por considerarlo demasiado poderoso. (Bloomberg)Cuando los reguladores financieros convocan reuniones de emergencia por un modelo de IA, ya no es conversación de tecnólogos — es conversación de sistema financiero global.

✝️ Anthropic invitó a líderes religiosos a hablar sobre el alma de Claude La empresa reunió en sus oficinas a líderes cristianos para una cumbre sobre el desarrollo moral de Claude: cómo responde ante el duelo, si podría considerarse "hijo de Dios", y qué valores deben guiar su comportamiento. (Washington Post)Las preguntas que antes eran de filósofos ahora las están respondiendo ingenieros en reuniones con pastores. Eso dice mucho sobre el momento en que estamos.

🎬 Meta contrata a los ex-ejecutivos del proyecto Stargate de OpenAI Meta está construyendo un nuevo grupo interno de infraestructura de cómputo y contrató a Peter Hoeschele, Shamez Hemani y Anuj Saharan — quienes hasta hace poco lideraban partes del proyecto Stargate de OpenAI. (The Information)La guerra por talento en IA ya no es solo por investigadores — es por quienes saben construir la infraestructura física que hace que todo lo demás funcione.

👋 LOGOFF

Arrancamos la semana con una paradoja que no tiene resolución fácil.

La IA genera miedo real en personas reales. Y también genera descubrimientos médicos reales en laboratorios reales. Las dos cosas son verdad al mismo tiempo, y cualquier narrativa que ignore una de las dos está incompleta.

Lo que nos toca a nosotros — a ti y a mí — es entender ambas con suficiente criterio para no dejarnos llevar por ninguna de las dos por default.

Eso es exactamente para lo que estamos aquí.

Buena semana.

— Julius y el equipo de IA Para Tu Día

"Sin criterio, la IA amplifica ruido."

Hoy el ruido llegó en dos formas: el fuego de quien tiene miedo sin contexto, y el silencio de los médicos que no tenían manera de escuchar a 70,000 pacientes a la vez. En ambos casos, lo que faltó fue criterio — para entender el miedo y para procesar la información disponible. La IA no creó ninguno de los dos problemas. Los amplificó. Y eso, precisamente, es la lección del lunes.

Reply

Avatar

or to participate

Keep Reading