¿Qué factores debe considerar para un rendimiento óptimo de análisis de video?

Timo Sachse

La IA sigue siendo aclamada como la tecnología que aumentará y mejorará el rendimiento humano en muchos sectores y la industria de la videovigilancia no es una excepción. La analítica basada en inteligencia artificial se utiliza cada vez más para procesar rápidamente grandes cantidades de datos y desencadenar acciones. Estas funciones ayudan a apoyar a un equipo de seguridad cuando monitorea escenas grandes y cambiantes, como en una autopista o perímetros, identificando objetos de interés y marcando aquellos que requieren una acción.

En teoría, esto suena ideal y muy beneficioso, pero cuando se implementa la tecnología, hay una serie de factores que deben examinarse para garantizar resultados de alta calidad. Estos incluyen el hardware de la cámara, la calidad de video, el nivel de iluminación, así como la configuración, la posición y la dirección de la cámara.

¿El entorno y la posición de la cámara apoyan su función?

Se dice que la calidad de la imagen depende de la alta resolución y la alta sensibilidad a la luz de la cámara, pero hay otros factores que son igualmente influyentes para la usabilidad real de una imagen o un video. Por ejemplo, la transmisión de video de mejor calidad de la cámara de vigilancia más cara puede ser inútil si la escena no está lo suficientemente iluminada por la noche, si la cámara ha sido redirigida o si la conexión del sistema está rota.

La ubicación de la cámara debe considerarse cuidadosamente antes de su implementación. Para que el análisis de video funcione como se espera, la cámara debe estar posicionada para permitir una vista clara, sin obstáculos, de la escena deseada. La usabilidad de la imagen también puede depender del caso de uso. Es posible que el video que se ve bien para el ojo humano no tenga la calidad óptima para el rendimiento de una aplicación de análisis de video. De hecho, muchos métodos de procesamiento de imágenes, como los métodos de reducción de ruido, que se usan comúnmente para mejorar la apariencia del video para la visualización humana, son menos óptimos cuando se utilizan análisis de video.

Las cámaras modernas a menudo vienen con iluminación IR integrada que les permite trabajar en completa oscuridad. Esto es positivo, ya que puede permitir que las cámaras se coloquen en lugares con poca luz y reducir la necesidad de instalar iluminación adicional. Sin embargo, si se esperan lluvias intensas o nevadas en un sitio, se recomienda encarecidamente no depender de la luz proveniente de la cámara o de una ubicación muy cercana a la cámara, debido a problemas con los reflejos.

¿Está la cámara a la distancia correcta de la escena?

Es difícil determinar una distancia máxima de detección de una aplicación de análisis basada en IA: un valor exacto de la hoja de datos en metros o pies nunca puede ser toda la verdad. La calidad de la imagen, las características de la escena, las condiciones climáticas y las propiedades de los objetos, como el color y el brillo, tienen un impacto significativo en la distancia de detección.

Esto también depende de la velocidad de los objetos a detector.  Para lograr resultados precisos, una aplicación de análisis de video necesita «ver» el objeto durante un período de tiempo suficientemente largo. La duración de ese período depende del rendimiento de procesamiento (velocidad de fotogramas) de la plataforma: cuanto menor es el rendimiento de procesamiento, más tiempo debe estar visible el objeto para ser detectado. Si el tiempo de obturación de la cámara no coincide con la velocidad del objeto, el desenfoque de movimiento en la imagen también puede reducir la precisión de detección.

Los objetos rápidos pueden pasar desapercibidos más fácilmente si pasan cerca de la cámara. Una persona que corre y que se encuentra lejos de la cámara, por ejemplo, puede ser bien detectada, mientras que una persona que corre muy cerca de la cámara a la misma velocidad puede entrar y salir del campo de visión tan rápidamente que no se dispara ninguna alarma.

En la analítica basada en la detección de movimiento, los objetos que se mueven directamente hacia la cámara o se alejan de ella presentan otro desafío. La detección será especialmente difícil para los objetos de movimiento lento, que solo causarán cambios muy pequeños en la imagen, en comparación con el movimiento a través de la escena.

¿Cómo se configuran las alarmas y la grabación?

El análisis de objetos funciona de manera óptima solo cuando se cumplen las condiciones previas enumeradas. En otros casos, es posible que se pierdan eventos importantes. Si no está absolutamente seguro de que se cumplirán todas las condiciones en todo momento, se recomienda adoptar un enfoque conservador y configurar el sistema de modo que una clasificación de objeto específica no sea el único disparador de alarma. Esto provocará más falsas alarmas, pero también reducirá el riesgo de perder algo importante.

Existe una necesidad obvia de una clasificación de objetos confiable para filtrar las alarmas no deseadas. Pero la solución de grabación debe configurarse para depender de otros factores además de la clasificación del objeto. En el caso de una alarma real falle, esta configuración le permite evaluar, a partir de la grabación, la razón por la que fallo la alarma y luego mejorar la instalación y configuración general.

¿Qué tan bien se mantiene la solución?

Es fundamental que la instalación de vigilancia se mantenga con regularidad. Se recomiendan inspecciones físicas, y no solo ver el video a través de la interfaz del Software de administración de video (VMS), para descubrir y eliminar cualquier cosa que pueda estar bloqueando el campo de visión.  Esto es importante también en instalaciones estándar de solo grabación, pero es aún más crítico cuando se utilizan análisis.

En el contexto de la detección de movimiento por video básica, un obstáculo típico, como una telaraña que se balancea con el viento, podría aumentar el número de falsas alarmas, lo que resultaría en un consumo de almacenamiento superior al necesario. Con el análisis de objetos, la web básicamente crearía una zona de exclusión en el área de detección. Sus hilos oscurecerían los objetos y reducirían en gran medida la posibilidad de detección y clasificación.

Es poco probable que la suciedad en el cristal frontal o la burbuja de la cámara provoquen problemas durante el día. Pero en condiciones de poca luz, la luz que golpea una burbuja sucia desde un lado, por ejemplo, de los faros de un automóvil, puede causar reflejos inesperados que pueden disminuir la precisión de detección.

El mantenimiento relacionado con la escena es tan importante como el mantenimiento de la cámara. Una simple comparación de imágenes de antes y después revelará problemas potenciales. ¿Cómo se veía la escena cuando se desplegó la cámara y cómo se ve hoy? ¿Es necesario ajustar la zona de detección?  ¿Se debe ajustar el campo de visión de la cámara o se debe mover la cámara a una ubicación diferente?

Una solución que funciona de manera óptima y constante

Invertir en análisis de video producirá muchos beneficios de seguridad si se implementa correctamente y se evalúa con regularidad. Como hay una serie de factores que pueden afectar el rendimiento, el personal de seguridad debe recordar que estas soluciones no entran en la categoría de «configurar y olvidar. En su lugar, se necesitará un enfoque que utilice una evaluación continua para garantizar que los resultados finales cumplan con los objetivos de la empresa y proporcionen un buen retorno de la inversión.

Para obtener más información, descargue el whitepaper «IA en el análisis de video: consideraciones para el análisis basado en el aprendizaje automático y el aprendizaje profundo».

Descargué el withepaper