Sora, la aplicación de OpenAI que «resucita» a los muertos y reabre el debate ético de la inteligencia artificial

To shared

THE LATIN VOX (17 de octubre del 2025).- Por Francisco Javier Valdiviezo Cruz.

Karl Marx cazando ofertas del Black Friday. Martin Luther King Jr. robando un refresco tras hablar de su sueño. La princesa Diana mezclando música en una discoteca. Escenas imposibles que hoy circulan con naturalidad en Sora 2, la nueva aplicación de video de OpenAI que promete materializar cualquier idea en imágenes hiperrealistas… incluso si sus protagonistas ya no están vivos.

Lanzada en octubre en Estados Unidos y Canadá, Sora alcanzó más de un millón de descargas en apenas cinco días, un récord que ni ChatGPT logró en su debut. La plataforma permite escribir una descripción breve y generar, en minutos, un video de diez segundos de alta calidad. El resultado se puede compartir en una red social interna o exportar a otras plataformas.

Su éxito, sin embargo, ha desatado una controversia global. La herramienta prohíbe usar la imagen de personas vivas sin consentimiento, pero autoriza recrear “figuras históricas” fallecidas.

Ese vacío ha dado pie a un catálogo digital de fantasmas célebres que oscila entre lo cómico y lo macabro: Hitler protagonizando un anuncio de champú, Amy Winehouse llorando frente a la cámara, Kobe Bryant recreando el accidente que lo mató.

Entre la fascinación y el mal gusto

Para muchos usuarios, Sora es un laboratorio de creatividad sin límites. Para otros, una línea roja tecnológica. “Es profundamente irrespetuoso ver la imagen de mi padre usada de manera tan insensible”, declaró Ilyasah Shabazz, hija de Malcolm X, tras difundirse clips del activista en situaciones degradantes.

Zelda Williams, hija del actor Robin Williams, pidió públicamente que dejaran de compartir videos de su padre generados con IA: “Reducir legados reales a basura viral es desquiciante”, escribió en Instagram.

OpenAI ha defendido su modelo alegando que el uso de personajes fallecidos forma parte del interés público y del derecho a la parodia. Sin embargo, para muchos expertos, Sora está tensando los límites éticos de la inteligencia artificial generativa.

El salto técnico —y legal— de Sora

La tecnología detrás de Sora combina modelos de difusión y aprendizaje multimodal entrenados con vastas bases de datos audiovisuales. Según OpenAI, no utiliza material específico de individuos, pero los resultados muestran una precisión sorprendente: gestos, miradas y movimientos que evocan más resurrección que recreación.

“Lo inquietante no es solo la fidelidad visual, sino la simulación de comportamiento”, explica Bo Bergstedt, investigador en IA generativa. “Sora no imita una foto, sino la esencia gestual de una persona. Es un tipo de clonación digital”.

Ese nivel de realismo abre un nuevo campo de batalla jurídico. En Estados Unidos, las leyes de difamación y derecho de imagen solo protegen a los vivos. Algunos estados —como California, Nueva York o Tennessee— reconocen un derecho póstumo de publicidad, pero su aplicación a sistemas de inteligencia artificial carece de precedentes.

“OpenAI está probando el terreno”, advierte Ashkhen Kazaryan, especialista en política tecnológica. “Mientras no exista una legislación federal, habrá un limbo de dos o tres años hasta que los tribunales definan responsabilidades”.

Si la empresa logra ampararse bajo la Sección 230, que exime a las plataformas de responsabilidad por contenido de terceros, podría evitar demandas. Pero su propio diseño —un espacio donde los videos más provocadores obtienen más visibilidad— podría volverse en su contra.

La distorsión del recuerdo

Más allá del derecho, los expertos advierten un riesgo cultural: la erosión de la memoria histórica. “Si los algoritmos reescriben a los muertos según las lógicas del entretenimiento, terminaremos recordando versiones algorítmicas de personas reales”, alerta Henry Ajder, investigador en ética digital.

Sora, como otras plataformas, premia el impacto emocional y el absurdo: cuanto más chocante, más popular. “Estamos entrenando a la IA para amplificar lo grotesco”, señala Ajder. “Y eso afecta la manera en que recordamos, nos informamos y nos relacionamos con el pasado”.

El futuro del rostro humano

Tras la ola de críticas, OpenAI anunció que permitirá a familiares o representantes de “personas recientemente fallecidas” solicitar que su imagen sea bloqueada. No ha explicado, sin embargo, qué significa “recientemente” ni cómo procesará esas peticiones.

Para James Grimmelmann, experto en derecho de internet en Cornell, esta política es insostenible: “No se puede pedir a las familias que persigan videos de sus seres queridos uno por uno. Es una carrera contra el algoritmo”.

Mientras tanto, Sora continúa expandiéndose y consolidándose como el laboratorio global del poshumanismo digital: un espacio donde la memoria se convierte en contenido y la identidad, en dato.

Más allá de la técnica

El fenómeno Sora plantea una pregunta que pronto será personal para todos: ¿quién controla nuestra imagen cuando ya no existimos?

“Estamos entrando en una era en la que la muerte deja de ser una frontera tecnológica”, concluye Ajder.

“Si aceptamos que cualquiera puede manipular nuestro rostro, vivos o muertos, habremos renunciado a la última forma de control: la del recuerdo”.

Crédito fotográfico: BBC News


To shared