Il punto di svolta per le analitiche edge

Articolo
3 maggio 2022
Anche se le analitiche eseguite direttamente sulle telecamere di sorveglianza non sono una novità, le minori difficoltà per gli sviluppatori, le telecamere con una potenza di calcolo straordinaria e il deep learning stanno aprendo la porta ad analitiche edge di nuova generazione, limitate solo dalla fantasia degli sviluppatori. Abbiamo incontrato Mats Thulin, Director of Core Technologies di Axis Communications, per chiedergli quali vantaggi offrano queste analitiche per il presente e il futuro.

L'arrivo di ARTPEC-8[MP1] , il system-on-chip (SoC) Axis di ultima generazione, segna una nuova era per le analitiche con deep learning in modalità edge, ovvero in grado di funzionare ai margini della rete. ARTPEC-8 è il frutto di oltre 20 anni di sviluppo e consente di eseguire analitiche come il rilevamento e la classificazione degli oggetti in tempo reale direttamente sulle telecamere.

Sebbene le analitiche a bordo telecamera non siano una novità (il rilevamento di movimento a video era disponibile sulle telecamere Axis più di dieci anni fa), la qualità d'immagine superiore in combinazione con il deep learning stanno trasformando le funzionalità analitiche.

 

Ridurre i carichi sul server

“Un decennio fa, le telecamere di sorveglianza non avevano la potenza di calcolo necessaria per le analitiche avanzate in modalità edge, quindi c'era una naturale tendenza verso le analitiche basate su server”, spiega Mats Thulin, Director of Core Technologies, Axis Communications. “Ma anche se i server hanno una potenza di calcolo abbondante, altri fattori possono essere problematici. La compressione video prima del trasferimento dalla telecamera al server può ridurre la qualità delle immagini analizzate, mentre scalare le soluzioni che eseguono tutte le analitiche su server può diventare costoso”.

Questo è particolarmente vero se le analitiche prevedono l'uso del deep learning. Mats prosegue: “Le analitiche che utilizzano il deep learning richiedono molte operazioni di calcolo. Se vengono eseguite solo su server, è necessario codificare e poi decodificare il video, aumentando i tempi prima di poter elaborare il flusso. L'elaborazione di numerosi flussi video, anche in un sistema relativamente piccolo con 20-30 telecamere, a 20 o 30 fotogrammi al secondo e ad alta risoluzione, richiede risorse significative”.

“Oggi, la potenza di calcolo e le capacità dei nostri dispositivi edge sono a un livello tale che le funzioni analitiche tornino ad essere decentrate”, aggiunge Mats. “Aumentando il numero di analitiche sulle telecamere, servono meno analitiche basate su server e cloud, che consumano molta potenza di calcolo. È anche importante sottolineare che le analitiche vengono applicate alle immagini nel punto di acquisizione: in questo modo si ha la massima qualità d'immagine possibile”.

Edge analytics
Click to enlarge a one page infographic on edge analytics.

Immagini ottimizzate per le macchine e l'uomo

I progressi nella qualità d'immagine tengono conto del fatto che le immagini vengono "viste" sempre di più dalle macchine anziché dagli operatori: la distinzione è importante, perché le macchine non vedono come l'uomo.

“Ora possiamo ottimizzare le immagini per le analitiche con intelligenza artificiale, oltre che per l'occhio”, spiega Mats. “Ad esempio, quando si ottimizza un'immagine per un operatore, in genere si cerca di ridurre il rumore video. Per le analitiche con IA, la riduzione del rumore non è così necessaria. Nell'ottimizzazione dell'immagine, gli obiettivi per gli esseri umani e per le analitiche con IA sono diversi, quindi l'uso parallelo di entrambe le modalità porta a risultati di qualità superiore”.

Maggiore scalabilità del sistema

Le analitiche edge possono ridurre la quantità di dati inviati in rete, aumentando l'efficienza in termini di larghezza di banda, spazio di archiviazione e server. Questo non vuol dire che le analitiche su server non abbiano ancora un ruolo da svolgere. Tutt'altro. In ultima battuta, gli approcci ibridi che sfruttano i punti di forza delle analitiche edge e di quelle basate su server e cloud diventeranno la soluzione ottimale.

“Condividere il carico di elaborazione tra edge e server renderà i sistemi molto più scalabili, perché aggiungendo una nuova telecamera con analitiche edge non sarà necessario aumentare la potenza di calcolo del server”, spiega Mats.

Mentre i sistemi edge standalone rimarranno in uso per le applicazioni di analisi della scena, creando avvisi in tempo reale basati sul riconoscimento e la classificazione degli oggetti, Mats ritiene che le soluzioni ibride con analitiche server e edge-based domineranno sempre di più nelle applicazioni che richiedono capacità di calcolo superiori.

Questo grazie ai metadati creati dalle analitiche edge insieme alle immagini. Nel contesto del video, i metadati sono una sorta di "tag" apposta agli elementi di una scena. In altre parole, aggiungono descrittori  o informazioni specifiche sulla scena, anziché le sole immagini grezze della scena. Il software di gestione video (VMS) può utilizzare i metadati per intervenire sulla scena attivando azioni in tempo reale o dopo un evento, oppure cercando elementi di interesse o effettuando ulteriori analisi.

 

Tutelare la privacy

Le analitiche edge possono aiutare a tutelare la privacy garantendo al tempo stesso sicurezza e vantaggi operativi. Ad esempio, le analitiche edge per il conteggio delle persone (utili nei punti vendita) devono trasferire solo i dati dalla telecamera anziché le immagini.

Ma le analitiche edge possono proteggere la privacy anche durante il trasferimento delle immagini.

“Il mascheramento intelligente, che permette di sfocare il volto delle persone in una scena, preserva la privacy. Inviando il flusso originale in allegato, che viene visualizzato solo se necessario, gli operatori possono comunque accedere al video non mascherato in caso di eventi”, spiega Mats.

Un nuovo mondo di applicazioni di computer vision

Oltre alle maggiori capacità dell'hardware basato su ARTPEC-8, i miglioramenti ad ACAP  (Axis Camera Application Platform) offrono a più sviluppatori che mai la possibilità di creare applicazioni di computer vision in ambienti che conoscono bene. Giunta alla sua quarta generazione, ACAP include API e framework standard e supporta i linguaggi di programmazione di alto livello.

“Grazie alle novità della quarta versione di ACAP, stiamo assistendo a un aumento dei partner di sviluppo con un background diverso dalla tradizionale sorveglianza”, conferma Mats. “ACAP si basa su componenti aperti e ben noti agli sviluppatori che si occupano di cloud o server. Stiamo adattando le specifiche dei metadati ONVIF a un ambiente aperto, che consenta agli sviluppatori di creare architetture ibride con diversi prodotti conformi a ONVIF. Si tratta di uno dei fattori chiave per far funzionare un sistema ibrido e le architetture”.

Le maggiori capacità di rilevamento delle analitiche aiutano anche gli sviluppatori di sicurezza e gli innovatori che operano in settori più ampi.

“I progressi nel rilevamento degli oggetti, con telecamere sempre più in grado di comprendere il contesto di una scena – distinguendo ad esempio tra una strada, un prato o un parcheggio – ci aiuteranno a implementare analitiche più accurate sulla scena e su altri oggetti al suo interno. Questa conoscenza porterà l'innovazione a un livello superiore”, afferma Mats. “Le nuove potenzialità delle analitiche edge sono enormi: questo vale per i nostri Partner, gli sviluppatori nuovi alle applicazioni di computer vision e, naturalmente, i nostri clienti".

 

Ulteriori informazioni sulla nuova era delle analisi video
Read interview
Per saperne di più