Dos investigadores de la Universidad Carnegie Mellon han desarrollado LiveLight, un algoritmo que permite eliminar escenas superfluas de un vídeo mediante el análisis en cuasi tiempo real del contenido. Con esta tecnología se puede ahorrar tiempo y dinero a la hora de analizar vídeos no editados, buscando información concreta.
LiveLight funciona mediante un diccionario aprendido de los primeros 30 segundos del vídeo y la búsqueda de patrones de imagen. A grandes rasgos, todo aquello que se repite de forma constante a lo largo del vídeo se considera superfluo, y lo que cambia se considera interesante. El sistema devuelve un vídeo resumido con las escenas que contienen diferencias significativas.
El campo de aplicación más inmediato de esta tecnología son las cámaras de seguridad, que graban horas de vídeo en las que no ocurre nada, hasta que se presenta un hecho excepcional, como puede ser un robo o un accidente de tráfico. Con LiveLight se evita la supervisión manual del vídeo en busca de esas diferencias.
Con un ordenador portátil convencional el sistema es capaz de analizar un vídeo de una hora en un máximo de dos. Con un equipo más potente o un superordenador el proceso se puede reducir a un minuto. En las pruebas realizadas se han tratado vídeos de hasta 24 horas de duración.
Si bien LiveLight necesita procesar el vídeo completo, es capaz de transmitir las imágenes mientras el algoritmo se está procesando. Por otro lado, guarda un registro de las secuencias descartadas, por lo que puede volverse sobre ellas si el sistema ha pasado algo por alto que pueda ser relevante.
Los creadores de LiveLight, Bin Zhao (Professor) y Eric P. Xing (estudiante de doctorado), han creado una empresa, llamada PanOptus, para comercializar LiveLight. Si consiguen perfeccionar el sistema hasta el punto de que el software se pueda ejecutar en un smartphone o tablet, puede ser un producto de éxito. Ya no será necesario ver un vídeo interminable de nuestro niño jugando; lo interesante es cuando llega el gato y le da un buen susto.
Vía | Inside Science
Vídeo | YouTube
Más información | Quasi Real-Time Summarization for Consumer Videos (PDF)
Ver 7 comentarios
7 comentarios
Lecquio
Si con está tecnología pueden eliminar de las películas las tramas románticas que no aportan nada, bienvenida sea.
sergio_alonso
Cómo lo empiece a usar Justin Bieber, se le quedan reducidos todos sus videoclips a un par de segundos...
rubentalonargente
Lo veo muy interesante y útil. Lo que no acabo de entender es el vídeo de muestra. Si el tiempo que está el niño jugando con la tablet el algoritmo lo considera "igual" y, por lo tanto, lo decarta... ¿qué pasaría si en ese momento le pasa algo al niño? como por ejemplo que se esté asfixiando, mareando o algo cuyos gestos se "aproximen" a lo que está haciendo en ese momento (jugar con la tablet).
Tampoco entiendo el final del vídeo, donde aparece la mano con el gesto de victoria, ¿tampoco lo considera relevante?
un saludo!