El punto de inflexión de la analítica en el extremo

Artículo
mayo 9, 2022
Aunque la integración de la analítica en las cámaras de vigilancia no es algo nuevo, la reducción de las barreras de acceso para los desarrolladores, la alta resistencia de las cámaras y su gran potencia de procesamiento, y la aparición del aprendizaje profundo han abierto la puerta a una nueva generación de analítica en el extremo, en la que el único límite es la imaginación de los desarrolladores. Charlamos con Mats Thulin, Director de tecnologías principales de Axis Communications, para conocer su visión de las ventajas tanto actuales como en clave de futuro.

La llegada del ARTPEC-8, la nueva generación del sistema en chip (SoC) de Axis, marca el inicio de una nueva era en la analítica con aprendizaje profundo en el extremo de la red. Capaz de realizar operaciones de analítica como la detección y clasificación de objetos en tiempo real dentro de la propia cámara, el ARTPEC-8 es fruto de más de 20 años de evolución.

Aunque la analítica integrada en la cámara no es un concepto nuevo, ya que la detección de movimiento por vídeo ya formaba parte de las cámaras Axis hace más de diez años, la combinación de una calidad de imagen superior y el aprendizaje profundo ha transformado las posibilidades de la analítica.

Una carga de analítica más ligera para el servidor

“Hace una década, las cámaras de vigilancia no tenían la potencia de procesamiento necesaria para proporcionar analítica avanzada en el extremo de la red, lo que obligaba en cierto modo a confiar en la analítica basada en servidor”, recuerda Mats Thulin, Director de tecnologías principales de Axis Communications. “Sin embargo, aunque el servidor cuenta con abundante potencia de procesamiento, hay otros factores que pueden plantear desafíos. La compresión de las imágenes de video antes de transferirlas de la cámara al servidor puede reducir la calidad de las imágenes analizadas y adaptar las soluciones para que toda la analítica tenga lugar en un servidor puede resultar prohibitivo”.

Un ejemplo de esta problemática es el uso del aprendizaje profundo en la analítica. Thulin añade: “La analítica con aprendizaje profundo es una tarea que consume mucha potencia de cálculo. Si se ejecuta únicamente en servidores, hace falta codificar y descodificar el video, lo que supone un tiempo extra antes de poder procesar la secuencia. Procesar diferentes secuencias de video, incluso en un sistema relativamente pequeño con 20-30 cámaras a 20 o 30 fotogramas por segundo y en alta resolución, requiere muchos recursos.”

“La potencia de procesamiento y las capacidades de nuestros dispositivos en el extremo son ya tan elevadas que permiten volver a integrar las funciones de analítica”, añade. “Y con más capacidades de analítica en la cámara, no hacen falta soluciones de analítica en la nube ni en servidores de gran consumo. Además, la analítica se aplica a las imágenes en el punto de captura, lo que garantiza la máxima calidad de imagen posible.””

Imágenes optimizadas para máquinas y humanos

Los avances en la calidad de imagen tienen en cuenta el hecho de que cada vez hay más máquinas en lugar de operadores humanos que ven las imágenes, una distinción muy pertinente, ya que las máquinas no ven las imágenes de la misma forma que los humanos.

“Ahora podemos ajustar las imágenes de vídeo para su análisis mediante IA y también optimizarlas para el ojo humano”, explica Thulin. “Por ejemplo, al ajustar una imagen para un operador, normalmente la idea es reducir el ruido. Sin embargo, en el caso de la analítica con IA, la reducción del ruido no es tan imprescindible. A la hora de ajustar la imagen, los objetivos dependen de si es para analítica por IA o para el ojo humano, por lo que si se utilizan los dos sistemas en paralelo se obtendrá un resultado de mayor calidad.”

Edge analytics
Haga clic para ampliar la infografía sobre análisis perimetral.

Escalabilidad del sistema mejorada

La analítica en el extremo puede reducir la cantidad de datos enviados a través de la red, para mejorar la eficiencia en cuanto al ancho de banda, el almacenamiento y los servidores. Sin embargo, esto no significa que la analítica basada en servidores ya no tenga nada que decir, ni mucho menos. Al final, los modelos híbridos que sepan aprovechar las ventajas de la analítica en el extremo y la analítica basada en servidor y en la nube serán sin duda la mejor solución.

“Compartiendo la carga de procesamiento entre el dispositivo local y el servidor, los sistemas serán mucho más escalables, ya que será posible añadir una nueva cámara con funciones de analítica en el extremo sin tener que ampliar la potencia de procesamiento del servidor”, explica Thulin.

Aunque los sistemas en el extremo autónomos continuarán empleándose en aplicaciones de analítica de escenas, para crear alertas en tiempo real basadas en reconocimiento y clasificación de objetos, Thulin cree que las soluciones híbridas de analítica en el servidor y en el extremo irán ganando protagonismo en los entornos que requieran más capacidad de procesamiento.

El motivo son los metadatos generados por la analítica en el extremo junto a las imágenes de vídeo. Los metadatos, en el contexto del vídeo, básicamente etiquetan elementos de una escena. En otras palabras, añaden descriptores o información sobre la escena, en lugar de únicamente imágenes de vídeo en bruto de la escena. El software de gestión de vídeo (VMS) puede usar los metadatos para actuar en respuesta a la escena y activar acciones en tiempo real o con posterioridad a un evento, así como buscar elementos de interés o realizar nuevos análisis.

Protección de la privacidad

Otro de los puntos a favor de la analítica en el extremo es que puede contribuir a proteger la privacidad, además de aportar ventajas en el terreno de la seguridad o en el aspecto operativo. Por ejemplo, la analítica en el extremo de recuento de personas, muy útil en entornos comerciales, solo tendrá que transferir datos de la cámara en lugar de imágenes de vídeo.

Sin embargo, la analítica en el extremo puede proteger la privacidad incluso durante la transferencia de las imágenes de vídeo.

“La aplicación inteligente de máscaras, que oculta los rostros de las personas de una escena, garantiza la privacidad. Y como la secuencia original se envía por separado, y solo se reproduce cuando es necesario, en caso de incidente los operadores tienen la opción de acceder al vídeo sin las máscaras”, explica Thulin

Un nuevo mundo de aplicaciones de visión artificial

Además de las nuevas posibilidades del hardware controlado por el chip ARTPEC-8, las mejoras en la ​Plataforma de aplicaciones de cámaras AXIS (ACAP) ponen al alcance de más desarrolladores que nunca la oportunidad de crear aplicaciones de visión artificial en los entornos que ya dominan. La ACAP, actualmente en su cuarta generación, incluye API y arquitecturas estándar del sector, y es compatible con lenguajes de programación de alto nivel.

“Gracias a los cambios introducidos en la versión 4 de la ACAP, cada vez tenemos más socios desarrolladores procedentes de sectores no vinculados a la vigilancia tradicional”, confirma Thulin. “La ACAP está construida con componentes de tipo abierto muy populares entre los desarrolladores acostumbrados a trabajar con entornos en la nube o de servidor. Hemos adaptado las especificaciones de los metadatos ONVIF a un entorno abierto, en el que los desarrolladores puedan crear arquitecturas híbridas con diferentes productos conformes con ONVIF. Esta es una de las claves para que los sistemas y arquitecturas híbridos realmente funcionen.”

La mejora de las capacidades analíticas de detección también ha abierto más puertas a desarrolladores de soluciones de seguridad y pioneros de otros sectores.

“Los avances en la detección de objetos, con unas cámaras que cada vez entienden mejor el contexto de una escena, permiten diferenciar entre una calle, un jardín o un aparcamiento, por ejemplo, y así podemos aplicar una analítica más precisa en cada escena y a los objetos que contiene. Esta información permitirá subir el listón de la innovación”, asegura Thulin. “El nuevo potencial de la analítica en el extremo es enorme, para nuestros socios actuales, para los desarrolladores sin experiencia previa con aplicaciones de visión artificial y, naturalmente, para nuestros clientes.”

Lea más sobre la nueva era para el análisis de video
Leer entrevista
Más sobre