OpenAI presentó Sora, su nueva aplicación social centrada en vídeos cortos, el 1 de octubre de 2025. Desde el primer día, la plataforma ha provocado polémica porque se ha llenado rápidamente de deepfakes hiperrealistas del CEO de OpenAI, Sam Altman. Esto pone sobre la mesa los problemas que existen a la hora de moderar contenidos y proteger los derechos de imagen en un entorno digital donde crear este tipo de vídeos manipulados es cada vez más sencillo.
Un estreno muy llamativo
Sora permite a los usuarios crear vídeos en los que pueden modificar tanto la imagen como la voz de Sam Altman. El resultado son situaciones cómicas y surrealistas que, gracias a la tecnología de la aplicación, resultan casi indistinguibles de la realidad. La herramienta cuenta con un sistema de cameos que aprovecha señales biométricas del rostro y el movimiento de las personas para generar vídeos muy realistas, destacando frente a otras apps similares.
La base de Sora está en la posibilidad que tienen los usuarios de subir pequeños vídeos de sí mismos. A partir de ahí, la plataforma puede recrear caras y gestos. Esto facilita que cada uno cree contenido único, pero al mismo tiempo abre un debate sobre el consentimiento y la propiedad de la imagen. En esta primera etapa, la imagen y la voz de Altman están abiertas como cameo público, lo que ha hecho que los deepfakes se multipliquen aún más rápido.
Permisos y privacidad
OpenAI ha incluido controles de permisos para que los usuarios decidan quién puede ver sus vídeos, con opciones que van desde “solo yo” hasta “todos”. Sin embargo, el hecho de que el cameo de Sam Altman venga activado por defecto como público ha sido muy criticado. Esto ha provocado la rápida difusión de contenido no autorizado, lo que puede dañar tanto la reputación del propio CEO como la imagen pública de la empresa.
En lo técnico, Sora ha supuesto un salto importante. Presume de ofrecer mayor realismo y continuidad física, sobre todo en los ojos, las manos y los objetos en movimiento. Logra así un resultado mucho más creíble que otros generadores de vídeo por inteligencia artificial anteriores, y marca un nuevo punto de referencia en la creación de este tipo de contenido manipulado.
Desafíos de derechos de imagen y consentimiento
El lanzamiento de Sora está sirviendo como un verdadero test para las políticas de seguridad de OpenAI y sus normas sobre derechos de imagen y consentimiento biométrico. Vivimos en un entorno digital donde la frontera entre lo real y lo manipulado es cada vez más confusa, y la empresa tiene ante sí un reto importante en la protección de la privacidad y los derechos de las personas.
De momento, OpenAI no ha aclarado si va a reforzar los controles de acceso a cameos públicos o si limitará el uso de la imagen y la voz de Altman, lo que genera dudas sobre cómo gestionarán este tipo de contenidos en adelante. Además, tampoco hay información concreta sobre cómo se usan, almacenan o protegen los datos biométricos que los usuarios suben a la plataforma, lo que preocupa a muchos tanto dentro como fuera de la comunidad de usuarios.
Como señalan algunos expertos, “el resultado es un debut que también sirve como prueba de resistencia para el manual de seguridad, las políticas de propiedad intelectual y la estrategia de consentimiento biométrico de la compañía”. Tanto la empresa como los usuarios ven clara la necesidad de revisar a fondo estas políticas en relación con la generación y el uso de contenido manipulado.
Mirando al futuro
Mientras Sora sigue expandiéndose en el mundo de las aplicaciones sociales, está claro que su funcionamiento va a ser estudiado con lupa. La facilidad con la que se puede crear contenido engañoso plantea dilemas éticos sobre los deepfakes y su regulación. El desarrollo y la acogida de esta aplicación reflejarán no solo el avance tecnológico de OpenAI, sino también el equilibrio que tendrá que buscar la empresa entre innovar y asumir su responsabilidad social.
Con su lanzamiento, Sora ha puesto encima de la mesa una serie de desafíos y cuestiones importantes que exigirán atención en los próximos meses y años, desde el punto de vista tanto técnico como ético.