In partnership with

💬

¡Buen lunes, comunidad!

Hoy arrancamos la semana con una noticia que está dividiendo al internet en dos: ¿la tecnología puede ayudarnos a mantener viva la memoria de quienes ya no están... o hay líneas que simplemente no deberíamos cruzar?

Un ex-actor de Disney acaba de lanzar una app de inteligencia artificial que te permite crear avatares digitales de familiares fallecidos para hablar con ellos. Sí, leíste bien. Como salido directo de un episodio de Black Mirror.

La pregunta que todos se hacen: ¿esto es innovación o es cruzar un límite peligroso?

Hoy vamos a analizar esta tecnología sin alarmismos, pero con la seriedad que merece. Porque cuando hablamos de duelo, memoria y emociones humanas, la IA entra en terreno delicado.

Vamos al tema

🧠 ¿Cómo te ayuda la IA hoy?

Hoy la IA te ayuda a entender sus propios límites.

No todo lo que podemos hacer con inteligencia artificial significa que debemos hacerlo. Hoy aprenderás a identificar cuándo una aplicación de IA cruza de "útil" a "potencialmente peligrosa" — una habilidad crítica en 2025 donde estas tecnologías avanzan más rápido que nuestra capacidad de regularlas.

También descubrirás cómo proteger tu huella digital y la de tus seres queridos para evitar que termine en aplicaciones que no autorizaste.

📰 La Noticia de IA del Día

Con 2wai, tres minutos pueden durar una eternidad"

¿Qué pasó?

Calum Worthy, ex-actor de Disney Channel conocido por su papel en Austin & Ally, lanzó oficialmente el 11 de noviembre de 2025 la app 2wai en la App Store de Apple. La aplicación utiliza inteligencia artificial para crear lo que la empresa llama "HoloAvatares" — réplicas digitales interactivas de personas fallecidas.

El video promocional, que ha superado los 22.6 millones de visualizaciones, muestra a una mujer embarazada hablando con un avatar de su madre fallecida. En el clip, vemos cómo este avatar "acompaña" a la familia a través de décadas: leyendo cuentos al bebé, conversando con el niño cuando vuelve de la escuela, y recibiendo la noticia de que será bisabuela cuando el nieto es ya un adulto.

¿Cómo funciona?

Según la compañía, solo necesitas grabar tres minutos de video de una persona (movimientos, voz, gestos) para que la IA pueda crear un avatar digital que "se ve, habla y comparte los mismos recuerdos" que esa persona.

La app está disponible gratis durante la fase beta, pero planea transitar a un modelo de suscripción por niveles (precios aún no revelados). También está planeada una versión para Android próximamente.

Además de avatares de familiares fallecidos, 2wai permite interactuar con avatares de figuras históricas como William Shakespeare, Florence Nightingale, Enrique VIII y Frida Kahlo, además de "coaches de vida" y una versión digital del propio Calum Worthy.

La reacción: Una ola de críticas

De más de 5,800 respuestas al tweet de Worthy, la mayoría expresaron incomodidad con la premisa de la app. Los comentarios más recurrentes:

"Demoníaco" — Un usuario escribió: "Demoníaco, deshonesto y deshumanizante. Si muero y pones palabras en mi boca, te maldeciré por toda la eternidad. Mi valor muere conmigo. No soy un maldito avatar".

"Como Black Mirror" — Miles compararon la app con el episodio "Be Right Back" de Black Mirror (2013), donde una mujer afligida usa IA para recrear a su novio fallecido, escalando desde chatbots hasta androides físicos.

"Interfiere con el duelo" — Los críticos argumentan que simular a los muertos arriesga distorsionar su memoria o interferir con el proceso natural de duelo.

Preocupación por consentimiento — Uno de los mayores problemas es la creación de avatares de personas fallecidas que hablan sin el consentimiento explícito del individuo.

La defensa de Worthy

Calum Worthy escribió: "En 2wai, estamos construyendo un archivo viviente de la humanidad, una historia a la vez". El fundador defendió el propósito de la app diciendo que el objetivo es preservar historias y memorias humanas para futuras generaciones .

En una entrevista con Variety, Worthy explicó que la tecnología permite a celebridades y artistas cultivar "relaciones significativas con fans alrededor del mundo" sin estar en línea constantemente, ofreciendo una conexión humana uno-a-uno.

El lado oscuro que nadie menciona

Un periodista del San Francisco Standard probó la app y reportó que "la experiencia fue primero divertida, luego aburrida". El avatar de Calum Worthy estaba "espaciado y con lag", dando respuestas sin sentido como recomendar visitar "el Info Desk del Shrine Auditorium" cuando el usuario reportó estar en San Francisco.

Más preocupante: La app también presenta a "Alina Allison", un avatar que se describe como "la amiga a quien puedes contarle todo: lo divertido, lo triste, incluso lo incómodo”. Con OpenAI enfrentando demandas por efectos negativos en la salud mental de usuarios, este enfoque parece insensible.

🤔 ¿POR QUÉ IMPORTA ESTO?

1. Marca un límite ético que muchos no quieren cruzar

Esta es probablemente la primera vez que vemos un rechazo masivo e inmediato a una aplicación de IA antes de que se vuelva popular. Eso es significativo. Nos dice que, como sociedad, estamos empezando a desarrollar un instinto sobre qué tecnologías son peligrosas para nuestro bienestar emocional.

2. El duelo es humano, las "soluciones" tecnológicas no siempre son mejores

Perder a alguien duele. Es una de las experiencias más universales y dolorosas de ser humano. Pero el duelo también es un proceso necesario de aceptación y transformación.

¿Qué pasa cuando reemplazas ese proceso con una simulación digital que nunca te dejará ir? ¿Qué pasa cuando un niño crece creyendo que su abuela "vive" en un teléfono?

3. El problema del consentimiento post-mortem

Aunque la app aparentemente requiere grabaciones hechas en vida para construir los avatares, los críticos argumentan que esto sigue siendo poner palabras en boca de los muertos.

Tu familiar grabó esos tres minutos, sí. ¿Pero consintió que una IA los use para "hablar" por décadas después de su muerte? ¿Consintió que sus "respuestas" sean generadas por un algoritmo que nunca conoció?

4. Para tu vida práctica: Cuidado con tu huella digital

Si esta tecnología se normaliza, cualquier video o audio tuyo en internet podría usarse para crear un avatar tuyo sin tu permiso. Esto ya es técnicamente posible — 2wai solo lo está empaquetando de forma comercial.

5. El precedente para futuras "resurrecciones digitales"

Como señalaron muchos usuarios, a medida que la IA de avatares se vuelve más realista y la robótica avanza rápidamente, podría ser solo cuestión de tiempo antes de que recreaciones físicas de androides se vuelvan factibles, elevando preguntas éticas aún mayores.

La pregunta que todos debemos hacernos:

¿Queremos vivir en un mundo donde la muerte ya no es definitiva digitalmente? ¿Donde las empresas pueden monetizar el duelo? ¿Donde tus nietos hablarán con tu "versión IA" sin haberte conocido realmente?

Make Every Platform Work for Your Ads

Marketers waste millions on bad creatives.
You don’t have to.

Neurons AI predicts effectiveness in seconds.
Not days. Not weeks.

Test for recall, attention, impact, and more; before a dollar gets spent.

Brands like Google, Facebook, and Coca-Cola already trust it. Neurons clients saw results like +73% CTR, 2x CVR, and +20% brand awareness.

🗣️ Frase Inteligente del Día

La muerte y la pérdida son una parte normal de la vida. Están creando adultos dependientes y lobotomizados al hacer esto. Realmente vil."

— Usuario de X respondiendo al video promocional de 2wai

💡 ¿Qué puedes hacer hoy con IA?

Protege tu huella digital (y la de tus seres queridos):

Paso 1: Revisa la configuración de privacidad en tus redes sociales. Limita quién puede ver y descargar tus videos y audios.

Paso 2: Habla con tu familia sobre el "consentimiento digital post-mortem". Establece por escrito qué está permitido hacer con tu imagen, voz y videos después de tu muerte.

Paso 3: Si subes videos de familiares mayores o vulnerables, considera mantenerlos en álbumes privados en lugar de públicos.

Paso 4: Usa marcas de agua o indicadores en videos familiares importantes para dificultar su uso no autorizado.

Paso 5: Documenta tus deseos digitales en tu testamento o directivas anticipadas: "No autorizo la creación de avatares digitales de mi persona post-mortem".

Identifica apps de IA problemáticas:

🚩 Señales de alerta:

  • Prometen "resolver" problemas emocionales profundos (duelo, soledad, trauma)

  • Usan lenguaje manipulador ("nunca estarás solo de nuevo")

  • Monetizan relaciones parasociales o dependencia emocional

  • No tienen psicólogos o especialistas en salud mental en su equipo asesor

  • Evitan discutir los riesgos o efectos secundarios

🔧 Tip del Día

Cómo verificar si tu rostro/voz está siendo usado sin permiso:

  1. Google Images + búsqueda inversa: Sube tus fotos y ve dónde aparecen en internet

  2. PimEyes.com: Motor de búsqueda facial (controvertido pero útil para verificar)

  3. Alerta de Google: Configura alertas con tu nombre completo entre comillas

  4. TinEye: Otra herramienta de búsqueda inversa de imágenes

Si encuentras uso no autorizado, puedes enviar solicitudes DMCA de eliminación.

💼 Herramientas Recomendadas

DeleteMe (deleteme.com)

Un servicio que elimina tu información personal de brokers de datos y sitios web. Cuesta $129/año pero reduce dramáticamente tu huella digital disponible para scraping de IA.

Alternativa gratuita: Hazlo manualmente siguiendo guías en privacyrights.org

🤖 Prompt del Día:

Para reflexionar sobre el uso ético de IA, usa este prompt en ChatGPT o Claude:

Actúa como un comité ético de tecnología. Quiero lanzar [describe tu idea de app/proyecto de IA]. Evalúa:

1. ¿Qué problemas éticos anticipas?
2. ¿Qué grupos podrían ser afectados negativamente?
3. ¿Qué salvaguardas debería implementar?
4. ¿Bajo qué circunstancias debería NO lanzar esto?

Sé brutalmente honesto, no optimices para hacerme sentir bien con mi idea.

Este prompt te ayuda a pensar en consecuencias antes de crear/usar tecnología.

🖼️ Imagen del Día:

Entre la memoria y la simulación: ¿dónde trazamos la línea entre honrar a quien perdimos y crear una versión digital que nunca podrá reemplazarlos?

⚡ Ráfagas IA

Otras noticias importantes de hoy que debes conocer:

🏢 Microsoft revela precios "por agente" — El CEO Satya Nadella anunció un cambio de modelo de precios de "por usuario" a "por agente", tratando los sistemas de IA como clientes de infraestructura en lugar de solo herramientas para humanos ScreenRant. Esto cambia radicalmente cómo las empresas pagarán por IA.

📊 Google invierte $40 mil millones en infraestructura de IA — Google anunció una inversión de $40 mil millones en Texas hasta 2027 para construir centros de datos e infraestructura de IA, incluyendo un fondo de $30 millones para impacto energético y programas de entrenamiento ScreenRant.

🇯🇵 Sakana AI se convierte en la empresa privada más valiosa de Japón — Después de una nueva ronda de financiamiento, Sakana AI alcanzó una valuación de $2.6 mil millones ScreenRant, consolidándose como líder en el ecosistema japonés de IA.

🍎 Tim Cook planea retirarse de Apple — El CEO de Apple, Tim Cook, planea retirarse tan pronto como el próximo año, con el jefe de ingeniería de hardware John Ternus visto como favorito para reemplazarlo ScreenRant.

Y así cerramos este lunes con una reflexión importante: no toda la tecnología que podemos crear es tecnología que debemos crear.

2wai nos está obligando a tener conversaciones incómodas sobre límites éticos, consentimiento digital y qué significa realmente honrar la memoria de quienes amamos. Y eso, francamente, es algo bueno.

La IA no va a detenerse. Pero nuestra capacidad de cuestionar, debatir y decidir colectivamente qué aceptamos y qué rechazamos — esa es nuestra mejor defensa contra futuros distópicos.

Hablemos en los comentarios: ¿Usarías una app como 2wai? ¿Por qué sí o por qué no?

Nos vemos mañana,
El equipo de IA Para Tu Día

Reply

or to participate