KI-fähige Kameras von Axis Communications
Alle neuen Kameras von Axis Communications werden mit KI versehen. Von grundlegender Bedeutung für viele der KI- und Deep-Learning-Funktionen im Produktportfolio ist das sogenannte System-on-Chip (SoC).
Eine Sicherheitskamera hat eine Lebensdauer von fünf Jahren oder mehr. Über diesen Zeitraum sollte eine neue Kamera auch für künftige Nutzungsmöglichkeiten und Einsatzszenarien geeignet sein. Künftige Innovationen werden KI-fähigen Sicherheitskameras in praktisch jeder Branche ganz neue Funktionen ermöglichen – doch schon heute bieten sie einen höchst konkreten Mehrwert.
Künstliche Intelligenz und Deep Learning halten immer stärker Einzug in die Videosicherheit. Dies erhöht die „Lernfähigkeit“ der Sicherheitskameras, wodurch sie die in Echtzeit gefilmten und analysierten Inhalte intuitiver verarbeiten können. Wenn sich Kunden nur auf die heute verfügbaren KI-gestützten Analysen konzentrieren, verpassen sie möglicherweise das Potenzial der noch nicht entwickelten Anwendungen, die sowohl in naher als auch in ferner Zukunft kommen werden.
Die Investition in KI-fähige Kameras mag bei manchen Menschen auf Unverständnis stoßen. Allerdings gehen solche Investitionen mit zahlreichen unmittelbaren Vorteilen einher. Wer in eine KI-Kamera investiert, profitiert vom ersten Moment an von mehr Schutz, Sicherheit und betrieblicher Effizienz. Die meisten KI-Kameras des Herstellers profitieren von Deep-Learning-basierten Analysefunktionen, die eine genauere Erfassung von Objekten und Klassifizierung von Szenendetails ermöglichen.
Bisher konnte die Edge-Analyse von Kamerabildern mithilfe von Videobewegungserkennung zeigen, dass sich etwas oder jemand bewegt hat. Im Anschluss daran und nach weiterer Analyse durch ein Video Management System (VMS) konnte ein menschlicher Bediener genau erkennen, was die Bewegung verursacht hat und ob sie eine Bedrohung oder ein Sicherheitsrisiko dargestellt hat.
Dank Deep Learning sind wir jedoch nunmehr in der Lage, ein Kamerasystem so zu „trainieren“, dass bestimmte Objekte automatisch erkannt und klassifiziert werden. Bediener können sich daher auf tatsächliche Bedrohungen statt auf wogendes Blattwerk, vorüberziehende Schatten und Ähnliches mehr konzentrieren.
Die klassifizierten Objekte werden zur weiteren Analyse durch einen menschlichen Bediener als Metadaten an das VMS gesendet, oder sie dienen als Auslöser für automatisierte Reaktionen auf Grundlage voreingestellter Regeln. Da die erste Analyse auf der Kamera stattfindet – und nicht auf einem Server oder in der Cloud – kann wertvolle Bandbreite eingespart werden, da nur relevante Daten durch das System geschickt werden.
Die im Zuge der Videoaufnahmen erstellten Metadaten – im Wesentlichen detaillierte Informationen darüber, was in der Szene passiert und welche Objekte vorhanden sind – stellen einen enormen Fortschritt dar. Dadurch wird es z. B. möglich, große Mengen an Videoaufnahmen von Fahrzeugen und Personen nach Fahrzeug- und Kleidungsfarben oder nach der Fahrtrichtung zu durchsuchen – eine extrem nützliche Funktion.
Metadaten von Szenen sind auch von zentraler Bedeutung, um Muster und Trends in erfassten Daten zu erkennen, was für bessere Vorhersagen, Prognosen und Entscheidungen von unschätzbarem Wert ist. Dies kann dazu beitragen, Änderungen zu überwachen und Anomalien zu verfolgen, um ein klareres Bild von Ereignissen im Laufe der Zeit zu erhalten.
Durch die höhere Präzision der Edge-basierten Analysefunktionen mit KI und ihrer Erkennung unterschiedlicher Objektkategorien treten weniger falsche Positiv- wie Negativmeldungen auf. Somit müssen auch weniger Zeit und Ressourcen aufgewendet werden, um falsche Positivmeldungen zu prüfen. Heutzutage kann die Edge-Analyse schnellere und bessere Ergebnisse bieten. Die in das System integrierte Verarbeitung senkt die Kosten, verbessert das Nutzungserlebnis und erhöht den Mehrwert für die Kunden.