Die Trendwende für Edge Analytics (inkl. Infografik zum Download)

Artikel
7. April 2022
Analysen auf Sicherheitskameras sind zwar nicht neu, aber die Kombination aus einer niedrigen Einstiegsschwelle für Entwickler, robusten Kameras mit hervorragender Verarbeitungsleistung und Deep Learning ermöglicht eine neue Generation von Analysen, die nur durch die Vorstellungskraft der Entwickler begrenzt wird. Wir haben uns mit Mats Thulin getroffen, Director of Core Technologies bei Axis Communications, um mit ihm über die Vorteile heute und für die Zukunft zu reden.

ARTPEC-8, die neueste Generation des Axis System-on-Chip (SoC), eröffnet eine neue Ära von Deep Learning Analysefunktionen am Rand des Netzwerks. ARTPEC-8 basiert auf über 20 Jahren Entwicklungsarbeit und stellt Analysefunktionen wie eine Objekterkennung und -klassifizierung in Echtzeit direkt in der Kamera bereit.

Die kamerainterne Analyse ist zwar nicht neu – die Videobewegungserkennung war bereits vor über 10 Jahren ein Merkmal unserer Kameras –, doch die Kombination aus hervorragender Bildqualität und Deep Learning ist für die Analysemöglichkeiten von entscheidender Bedeutung.

Reduzierung der Serverlast durch Analysen

„Vor zehn Jahren hatten Sicherheitskameras noch nicht die Rechenleistung, die für fortschrittliche Analysefunktionen in den Randbereichen eines Netzwerks benötigt wird, also tendierte man naturgemäß hin zu Server-basierter Analytik“, so Mats Thulin, Director of Core Technologies bei Axis Communications. „Doch während reichlich Rechenleistung eines Servers vorhanden ist, können andere Faktoren eine Herausforderung darstellen. Die Komprimierung der Videobilder vor der Übertragung von der Kamera auf den Server kann die Qualität der analysierten Bilder verschlechtern, und die Skalierung von Lösungen, bei denen die gesamte Analytik im Server stattfindet, können zu einer teuren Angelegenheit werden.“

Das ist insbesondere der Fall, wenn während der Analyse Deep Learning eingesetzt werden soll. Thulin weiter: „Analysefunktionen mit Deep Learning sind sehr rechenintensiv. Werden sie nur auf Servern ausgeführt, muss man das Video ver- und wieder entschlüsseln, was zusätzliche Zeit erfordert, bevor man den Stream analysieren kann. Die Verarbeitung mehrerer Videostreams erfordert sogar in kleinen Systemen mit vielleicht nur 20–30 Kameras oder 20 oder 30 Frames pro Sekunde bei hoher Auflösung umfangreiche Ressourcen.“

„Die Verarbeitungsleistung und Funktionen unserer Edge-Geräte sind nun auf einem Niveau, dass wir die Analysefunktion zurück zu ihnen migrieren können“, fügt Thulin hinzu. „Und je mehr Analysen in der Kamera selbst stattfinden, desto weniger rechenintensive Server- und Cloud-basierte Analysefunktionen werden benötigt. Das bedeutet gleichzeitig auch, dass die Analytik auf die Bilder am Erfassungspunkt angewendet wird, wodurch eine bestmögliche Bildqualität gewährleistet wird.“

Für Maschinen und Menschen optimierte Bilder

Fortschritte bei der Bildqualität berücksichtigen die Tatsache, dass die Bilder immer häufiger von Maschinen anstatt von menschlichen Bedienern „angesehen“ werden – eine wichtige Unterscheidung, weil Maschinen Bilder nicht auf die gleiche Weise wahrnehmen wie der Mensch.

„Jetzt können wir Videobilder für die Analyse durch die KI „tunen“ und für das menschliche Auge optimieren“, erklärt Thulin. „Wenn man ein Bild beispielsweise für eine Bedienperson optimiert, versucht man in der Regel, Rauschen zu reduzieren. Bei der KI-Analytik ist Rauschunterdrückung jedoch weniger wichtig. Die Ziele bei der Bildoptimierung für Menschen oder KI-Analysefunktionen unterscheiden sich, also erhält man eine bessere Qualität, wenn man beides parallel anwendet.“

Verbesserte Systemskalierbarkeit

Analysefunktionen „on the edge“ können die Menge der im Netzwerk übertragenen Daten reduzieren und die Effizienz bei Bandbreite, Speicherplatz und Servern erhöhen. Das heißt aber nicht, dass eine Server-basierte Analytik keine Rolle mehr spielt. Weit gefehlt! Über kurz oder lang werden Hybridsysteme, die die Stärken von Edge Analytics sowie Server- und Cloud-basierter Analysefunktionen nutzen, die optimale Lösung sein.

„Durch die Aufteilung der Rechenlast zwischen Edge und Server werden Systeme viel besser skalierbar, weil man beim Hinzufügen einer neuen Kamera mit Edge-Analytics-Funktion die Server-Rechenleistung nicht erhöhen muss“, erklärt Thulin.

Zwar werden eigenständige Edge-Systeme weiterhin für Anwendungen zur Analyse von Szenen eingesetzt werden, wo sie Echtzeit-Warnungen auf der Grundlage von Objekterkennung und -klassifizierung auslösen –, doch Thulin glaubt, dass Hybridlösungen aus Server- und Edge-Analytik den Markt dominieren werden, wenn eine erweiterte Verarbeitung gefordert ist.

Dies wird durch die Metadaten ermöglicht, die Edge-Analysefunktionen zusätzlich zu den Videobildern erzeugen. Metadaten – im Zusammenhang mit Video – kennzeichnen im Wesentlichen Elemente in einer Szene. Anders ausgedrückt: Es werden Beschreibungen oder intelligente Markierungen über die Szene hinzugefügt, anstatt nur die Video-Rohdaten der Szene selbst zu liefern. Anhand der Metadaten kann die Video Management Software (VMS) auf die Szene reagieren, Maßnahmen in Echtzeit oder im Anschluss an das Ereignis auslösen und nach bestimmten Elementen suchen oder weitere Analysen vornehmen.

Schutz der Privatsphäre

Edge Analytics bietet Möglichkeiten zum Schutz der Privatsphäre und gleichzeitig sicherheitstechnische und betriebliche Vorteile. So muss beispielsweise eine Edge-basierte Analysefunktion zur Personenzählung – etwa für den Einzelhandel – nur Daten von der Kamera übertragen, aber keine Videobilder.

Doch Edge Analytics kann die Privatsphäre auch dann schützen, wenn Videobilder übertragen werden.

„Intelligente Anonymisierung, bei der die Gesichter der Personen in einer Szene unkenntlich gemacht werden, sorgt für die Wahrung der Privatsphäre. Indem zusätzlich der Original-Stream gesendet wird, kann der Bediener bei Bedarf zusätzlich das unbearbeitete Video ansehen“, erklärt Thulin.

Eine neue Welt von Computer-Vision-Anwendungen

Neben besseren Hardware-Möglichkeiten durch ARTPEC-8 geben die Verbesserungen der AXIS Camera Application Platform (ACAP) Entwicklern aus unterschiedlicheren Bereichen als je zuvor die Möglichkeit, Computer-Vision-Anwendungen in bekannten Umgebungen zu entwickeln. Die inzwischen vierte Generation von ACAP enthält APIs und Frameworks nach Branchenstandard und bietet Unterstützung für höhere Programmiersprachen.

„Dank der Veränderungen in ACAP Version 4 bekommen wir immer mehr Entwicklungspartner, die einen anderen Hintergrund haben als den traditionellen Sicherheitssektor“, bestätigt Thulin. „ACAP basiert auf offenen, vertrauten Komponenten für Entwickler, die aus dem Cloud- oder Serverbereich kommen. Wir treiben die Entwicklung von Spezifikationen für ONVIF-Metadaten voran, um eine offene Umgebung zu erhalten, in der die Entwickler Hybridarchitekturen mit unterschiedlichen ONVIF-konformen Produkten schaffen können. Dies ist eine der Grundvoraussetzungen für funktionierende Hybridsysteme und -architekturen.“

Diese Entwicklung bei den analytischen Erfassungsmöglichkeiten unterstützt auch Sicherheitsentwickler und Innovatoren aus anderen Sektoren.

„Fortschritte bei der Objekterkennung, bei der Kameras zunehmend ein kontextbezogenes Verständnis einer Szene entwickeln – zum Beispiel die Unterscheidung zwischen einer Straße, einer Wiese oder einem Parkplatz – werden uns helfen, genauere Analysen der Szene und anderer Objekte in ihr durchzuführen. Dieses Wissen wird ein neues Maß an Innovationen ermöglichen“, sagt Thulin. „Edge Analytics bietet ein riesiges Potenzial für unsere bestehenden Partner, für neue Entwickler im Bereich Computer Vision und natürlich für unsere Kunden.“

Mehr über die neue Ära der Videoanalyse erfahren:
Das Interview lesen
Mehr über