¿Películas generadas por IA sin errores de continuidad? Esta IA lo hace alternativo

La inteligencia artificial (IA) ha avanzado a pasos agigantados en los últimos años, y una de las áreas en las que ha tenido un impacto significativo es en la generación de video. Sin embargo, uno de los principales retos de esta tecnología ha sido mantener la coherencia visual en múltiples tomas. Es aquí donde la startup Runway ha dado un paso importante con su nuevo modelo, Gen-4, diseñado específicamente para resolver este problema y agraciar la calidad de los videos generados por IA.

El anuncio de Gen-4 se realizó a través de la cuenta oficial de Runway en X, donde destacaron que este avance no solo mejora la estética de los videos generados, sino también su capacidad para contar historias de forma más fluida y estructurada. Esto es un avance clave para la narrativa generada por IA, ya que uno de los problemas más frecuentes ha sido la falta de continuidad entre escenas.

Con Gen-4, Runway afirma haber pactado gran parte de estos inconvenientes. El nuevo modelo permite trabajar a partir de una única comparación de referencia para generar personajes y elementos que se mantengan reconocibles desde distintos ángulos y condiciones. Esto significa que un creador puede diseñar un personaje, describir una escena, y obtener resultados consistentes en términos de apariencia, iluminación y perspectiva a lo largo de una secuencia narrativa.

Gen-4 está disponible inicialmente para usuarios de estiércol y clientes empresariales, y funciona a través de una interfaz en la que el usuario sube una comparación de referencia y describe, mediante texto, la composición deseada. El modelo utiliza esa información para generar videos en los que los elementos visuales mantienen su identidad, incluso cuando cambian la perspectiva o el entorno.

Para ilustrar sus capacidades, Runway publicó un video de demostración en el que una mujer aparece en distintos escenarios sin perder sus rasgos ni estilo visual. Las escenas muestran variedad de fondos y condiciones de luz, demostrando que el personaje sigue siendo reconocible en todo momento. Esto demuestra el potencial de Gen-4 para los cineastas independientes, creadores de contenido digital y diseñadores, ya que les permite ahorrar tiempo en la producción y postproducción, además de abrir nuevas vías para contar historias de manera más dinámica.

Es importante destacar que este nuevo avance llega menos de un año después del lanzamiento del modelo anterior, Gen-3 Alpha, que ya había supuesto una mejora significativa al permitir videos más largos. Sin embargo, esa versión generó controversia cuando surgieron informes que aseguraban que el modelo había sido entrenado con contenido extraído sin permiso de YouTube y películas pirateadas. ya Runway no ha abordado directamente estas críticas en esta nueva presentación, el enfoque ahora parece centrado en la calidad y control del contenido generado, dejando en segundo plano el debate sobre las fuentes de entrenamiento. Aun así, el uso de datos protegidos sin autorización sigue siendo un tema pendiente en el desarrollo de modelos de IA generativa.

En resumen, el lanzamiento de Gen-4 por parte de Runway es un avance significativo en la evolución de los generadores de video mediante IA. Este nuevo modelo permite mantener la coherencia visual en múltiples tomas, lo que mejora la calidad y la narrativa de los videos generados. Además, abre nuevas posibilidades para los creadores de contenido, quienes podrán ahorrar tiempo y contar historias de manera más dinámica y atractiva. Sin duda, la IA sigue sorprendiéndonos y mejorando nuestras vidas en diferentes ámbitos, y el futuro de la generación de video parece cada vez más prometedor gracias a empresas como Runway.

más populares