All’insegna delle buzzword: AI, analisi video, edge computing e molto altro

Alla voce buzzword, un dizionario riporta la seguente definizione: “Una parola o un’espressione di una particolare area tematica che è diventata di moda dopo essere stata molto utilizzata”.

Social network, ad esempio, è una buzzword nel mondo della tecnologia.

Ve ne sono diverse altre – intelligenza artificiale (AI), machine learning, deep learning, video analytics, internet of things ed edge computing – che sono invece diventate molto importanti in tema di sicurezza, protezione e videosorveglianza.

Partiamo dal termine ‘analisi video’, abbastanza semplice da definire: si tratta di un software che analizza automaticamente filmati in tempo reale e registrati, fornendo avvisi, risposte automatiche e approfondimenti. Sebbene l’analisi video non sia una novità – se ne parla dai primi anni 2000, persino da prima – come molte buzzword il suo valore è stato compreso dopo la sua creazione, dopo che altre tecnologie hanno ripreso l’idea originale.

Ma mentre l’elaborazione dei dati è una cosa, essere in grado di analizzare efficacemente e fornire approfondimenti utili richiede un certo livello di conoscenza.

Le capacità cognitive umane, eccellenti ma non modulabili su centinaia o migliaia di telecamere, devono essere supportate e potenziate dalla tecnologia. Il che conduce ad una delle buzzword attualmente più importanti: l’intelligenza artificiale (IA).

 

I computer possono replicare l’intelligenza umana?

La risposta breve è “no”, o perlomeno è “forse, ma non nel breve termine”.

L’intelligenza artificiale è “la capacità di acquisire e applicare conoscenze e abilità”. I computer possano diventare artificialmente intelligenti, ma perché l’IA si realizzi è necessario un requisito più specifico: la capacità di apprendimento dei computer e quella di imparare a fare qualcosa che non è presente nei dati e nei protocolli di cui dispone originariamente. E qui tocchiamo un’altra buzzword: il machine learning.

 

Insegnare alle macchine a imparare, e imparare a fondo

L’addestramento dei computer ad apprendere è noto come machine learning, una dinamica a cui tutti noi siamo esposti regolarmente. Ad esempio per chi fa acquisti o guarda film e TV online, i consigli erogati – e che si spera diventino più accurati e utili nel tempo – si basano sul machine learning.

Tuttavia, l’apprendimento automatico diventa uno strumento davvero potente quando queste preferenze sono analizzate insieme a quelle di milioni di altre persone che fanno scelte simili, con l’aggiunta di ulteriori informazioni demografiche note su di noi (da siti di social media, per esempio).

Nel mondo della videosorveglianza, il machine learning ha un potenziale enorme. Capire la natura di qualcosa è un conto, ma analizzare cosa stia facendo e perché è un’altra sfida. Si arriva così al livello oggi più avanzato di IA, il deep learning.

 

Reti neurali e proprietà degli oggetti

Per farla semplice, mentre il machine learning dirà che ci sono auto e persone, il deep learning saprà dire il colore e la marca delle auto ma anche riconoscere i segnali stradali, i ciclisti e persino le persone che portano le borse.

E mentre le reti neurali permettono ai computer di essere addestrati, se si vuole veramente che “imparino il mondo”, la quantità di dati necessari per farlo è davvero enorme.

 

Perché “Big Data” era una minimizzazione…

Ci sono altre due buzzword che si presentano come potenziali sostegni dell’IA: l’internet of things e l’edge computing.

L’internet of things (IoT) crea enormi quantità di dati ogni secondo di ogni giorno. Molti di questi dati hanno un potenziale valore ma devono essere trasferiti, elaborati, gestiti, memorizzati e analizzati. Il modello corrente più comune prevede che tutti i dati siano trasferiti dal dispositivo connesso a un centro dati per la memorizzazione e l’analisi. Naturalmente, non tutti i dati del dispositivo saranno utili o di valore, quindi il trasferimento e l’archiviazione creano un notevole spreco di risorse in termini di larghezza di banda e memoria, con conseguente impatto sul consumo energetico e sui costi.

D’altra parte, l’edge computing, come suggerisce il nome, impiega una maggiore potenza di elaborazione al “margine” della rete o, in termini più concreti, all’interno del dispositivo connesso stesso. Questo permette un certo livello di analisi dei dati da parte del dispositivo in questione – come una telecamera di rete – e quindi il trasferimento dei soli dati significativi e utili, o di quelli che richiedono ulteriori analisi (ad esempio, quelli che avvisano i funzionari delle irregolarità durante i controlli di frontiera che richiedono la verifica del passaporto). I vantaggi in termini di larghezza di banda e requisiti di memorizzazione sono evidenti, per non parlare dell’aumento dell’efficienza operativa.

 

La visione dell’analisi video

Giunti a questo punto, ricolleghiamo i fili. Per il futuro dell’analisi video, l’obiettivo è quello di combinare la potenza dei computer e la loro crescente capacità di apprendimento e comprensione con le capacità decisionali uniche degli esseri umani. Per molti versi, “intelligenza aumentata” è un termine migliore di “intelligenza artificiale”. Gli esseri umani supportati dalla potenza di calcolo dei computer saranno la combinazione vincente. Vedremo telecamere più intelligenti, in grado di analizzare con maggior efficacia le situazioni tramite l’AI, fornendo agli operatori le informazioni più rilevanti su cui prendere decisioni accurate, rapide ed efficaci in merito alla risposta più appropriata.

 

Potete approfondire le principali tendenze del settore nel 2019 nel nostro articolo già pubblicato sul blog.

Scopri di più sulle nostre soluzioni

Analisi Video