nx witness VMS: Überblick und Edge-Analytics-Architektur
nx witness stellt eine flexible Serveranwendung für Videoaufzeichnung und Live-Überwachung bereit und bildet den Kern vieler moderner Überwachungsinstallationen. Das nx witness-System kombiniert Media-Server- und Client-Komponenten zur Verwaltung von Streams und unterstützt sowohl in-Kamera-Analysen als auch externe Analyse-Plugins. Für Organisationen, die Datenschutz und Geschwindigkeit priorisieren, reduzieren KI-Analysen am Edge die Cloud-Abhängigkeit und verlagern die Verarbeitung an die Kamera. Dieser Ansatz hält Videodaten lokal und unterstützt damit die DSGVO- und EU-KI-Verordnungskonformität und verkürzt die Reaktionszeiten für Bedienpersonal.
Die Architektur nutzt den nx witness-Server zum Einspielen von IP-Kameras und zum Weiterleiten eines einzelnen Videostreams oder mehrerer Kopien an Analyse-Engines. Wenn Sie objektspezifische Analysen am Edge bereitstellen, verringern Sie Latenz und Bandbreitenkosten und behalten sensible Aufnahmen innerhalb Ihres Perimeters. Network Optix betont die Offenheit der Plattform und unterstützt viele Integrationen und Drittanbieter-Plugins, die erweiterte Analysen und Automatisierung innerhalb des nx witness-Videomanagementsystems ermöglichen. Zum Beispiel arbeitet Visionplatform.ai mit bestehender CCTV-Installation und mit nx witness zusammen, um Personen und Fahrzeuge am Edge zu erkennen und strukturierte Ereignisse für Betriebssysteme zu veröffentlichen.
Edge-Verarbeitung verbessert zudem die Resilienz. Fällt die Cloud-Verbindung aus, zeichnet der nx witness-Server weiterhin auf, und das KI-Modell verarbeitet die Quellvideos lokal weiter. Das hilft Sicherheitskräften, ihre Arbeit ohne Unterbrechung fortzusetzen. Die Verwendung von nx witness mit einem lokalen KI-Stack ermöglicht es, Modelle vor Ort feinzujustieren und das Modelltraining privat zu halten. Wenn Sie weiterführende Lektüre zur Personenerkennung in Flughäfen wünschen, siehe unsere Anleitung zur Personenerkennung in Flughäfen. Insgesamt macht die Nutzung von nx witness für Edge-Analytics das Überwachungssystem reaktionsschneller und datenschutzbewusster.
Video-Analytics-Funktionen: Echtzeit-Erkennung und Benachrichtigungen
Die integrierte KI-Engine kann Personen, Fahrzeuge und Tiere in Echtzeit erkennen und Ereignisse unmittelbar kennzeichnen. Das Plugin liefert Begrenzungsrahmen (Bounding Boxes), Objektattribute und Zeitstempel, sodass Bedienkräfte schnell handeln können. Die Erkennungsgenauigkeit moderner KI-Lösungen übersteigt in vielen Situationen oft 90 % und verringert damit Fehlauslösungen im Vergleich zu herkömmlichen Bewegungsdetektionssystemen (Branchenleitfaden). Dadurch sparen Teams Zeit und können sich auf echte Vorfälle konzentrieren; eine Studie fand beispielsweise bis zu 40 % Reduktion der manuellen Überprüfungszeit, wenn automatische Filter angewendet werden (Fallbeispiel).
Innerhalb von nx witness können Sie spezifische Ereignisregeln und intelligente Benachrichtigungen erstellen, um Ereignisse an Bedienkräfte oder nachgelagerte Systeme weiterzuleiten. Das System unterstützt musterbasierte Regeln, sodass Sie nur benachrichtigt werden, wenn Objekte eine Region zu einer bestimmten Zeit kreuzen. Zusätzlich enthalten die Analyseereignisse für jede Erkennung Objekt-Metadaten, sodass Sie Konfidenz, Klasse und Track‑ID an jeden Datensatz anhängen können. Für Umgebungen, die Fahrzeuginformationen benötigen, betrachten Sie die Beispiele zur Fahrzeugerkennung und -klassifizierung, die wir pflegen: Fahrzeugerkennung und -klassifizierung in Flughäfen.

Das System bietet eine zentrale Ansicht im nx witness-Client und unterstützt intelligente Alarme und gefilterte Zeitachsen. Da die Analysen lokal laufen, bleibt die Latenz gering und sensible Frames verbleiben innerhalb Ihres Perimeters. Das Analytics-Plugin für nx witness lässt sich so abstimmen, dass Störereignisse reduziert werden, und unterstützt den Einsatz in gemischten Kameraparks sowie In‑Camera‑Analytics führender Hersteller.
AI vision within minutes?
With our no-code platform you can just focus on your data, we’ll do the rest
Integrationsprozess: Installation des CVEDIA-RT AI‑Plugins
Um KI zu nx witness hinzuzufügen, prüfen Sie zunächst die Systemadministrationsanforderungen und die Hardware. Sie benötigen einen Host mit ausreichender Rechenleistung oder einen GPU-Server, der den Empfehlungen des cvedia-rt-Plugins entspricht, und sollten die Anzahl der Streams bestätigen, die jeder Knoten verarbeiten wird. Das cvedia-rt AI‑Analytics-Plugin installiert sich in den nx witness-Server und registriert sich als Analyseanbieter. Während der Installation können Sie eine Testlizenz aktivieren, um die Leistung vor dem Kauf zu validieren (Benutzerhandbuch).
Führen Sie diese Schritte durch, um das Plugin zu aktivieren. Stoppen Sie zuerst den Server und sichern Sie die Konfiguration. Zweitens laden Sie das Analytics-Plugin-Paket hoch und kopieren die Plugin-Dateien in den Plugin-Ordner des nx witness-Servers. Drittens starten Sie den Server neu und aktivieren das Plugin über die Server-Administrationskonsole. Viertens verwenden Sie den nx witness-Client, um den Analytics-Knoten als Verarbeitungspunkt hinzuzufügen und Kameras den Analysepipelines zuzuordnen. Das AI‑Analytics-Plugin für nx enthält eine einfache Benutzeroberfläche zur Modellauswahl und zur Einstellung von Erkennungsgrenzen. Wenn Sie Anleitungen zur Integration mit nx benötigen, lesen Sie die offiziellen Integrationshinweise des Anbieters (CVEDIA‑Dokumentation).
Kompatibilität ist wichtig. Bestätigen Sie, dass Ihre IP‑Kameras die Codec‑Profile unterstützen, die Ihr nx witness-Server erwartet, und dass die Kameraeinstellungen die erforderliche Bildrate erlauben. Wenn Sie In‑Camera‑Analytics verwenden, können Sie die native Unterstützung für In‑Camera‑Analysen nutzen und Analyseereignisse in nx witness weiterleiten. Für die Lizenzierung registrieren Sie den cvedia-rt-Plugin‑Lizenzschlüssel im Server und konfigurieren die Plugin‑Einstellungen für jede Kamera. Wenn Probleme auftreten, konsultieren Sie das Kapitel zur Fehlerbehebung im Handbuch und prüfen Sie Netzwerkpfade sowie GPU‑Treiber. Testen Sie außerdem mit einer kleinen Anzahl von Kameras, bevor Sie im gesamten Bestand bereitstellen.
Objektsuche-Tools: Retrospektive Ereignisuntersuchung
Die Objektsuche hilft Ermittlern, Personen und Objekte in umfangreichem Videomaterial ohne manuelle Durchsicht zu finden. nx witness bietet eine Suchfunktion, die Objekt-Metadaten indexiert und Objektschnappschüsse in einer Objektdatenbank für schnelle Abfragen speichert. Verwenden Sie Filter für Objekttyp, Zeitbereich, Region oder Attribute, um Ergebnisse einzugrenzen. Die retrospektive Suche beschleunigt forensische Aufgaben und ermöglicht es Sicherheitsteams, Beweise schnell zu sichern.
Starten Sie eine Suche, indem Sie die Kamera und das Zeitfenster auswählen und dann Filter für Objektattribute wie Farbe, Größe oder Richtung hinzufügen. Die Suchfunktion holt Datensätze aus Videoarchiven anhand von Objekt-Metadaten, anstatt Pixel zu scannen. Sie können Ergebnisse als Clips, Standbilder oder CSVs mit Zeitstempeln und Erkennungs‑Konfidenzen exportieren. An Flughäfen oder stark frequentierten Standorten koppeln Sie die Objektsuche möglicherweise mit unseren forensischen Suchwerkzeugen, um Abläufe zu beschleunigen; siehe unsere forensischen Beispiele zur forensischen Durchsuchung in Flughäfen für Details.
Anwendungsfälle umfassen das Wiederfinden verlorener Gegenstände, die Nachverfolgung verdächtiger Fahrzeuge und die Rekonstruktion von Kamerenübergreifenden Spuren. Sie können Suchen auch nutzen, um Systemautomationen zu validieren und Ereignisregeln zu optimieren. Die Suchoberfläche unterstützt Exportoptionen und Berichtserstellung, sodass Beweismaterial portabel und prüfbar bleibt. Für Organisationen, die ANPR/LPR oder PPE-spezifische Suche wünschen, siehe unsere dedizierten Seiten wie den ANPR‑Leitfaden ANPR/LPR in Flughäfen. Schließlich behalten Sie Ihre Beweiskette, indem Sie mit Zeitcodes exportieren und Objekt‑Metadaten für jedes exportierte Objekt beifügen.
AI vision within minutes?
With our no-code platform you can just focus on your data, we’ll do the rest
Erweiterte Objektsuchstrategien: Benutzerdefinierte Regeln und KI‑Tuning
Erweiterte Objektsuche geht über einfache Filter hinaus und verwendet benutzerdefinierte Erkennungsregeln und KI‑Modellanpassungen, um Ergebnisse zu verfeinern. Erstellen Sie Ereignisregeln, die Objektpräsenz, Verweilzeit und Regiondurchquerung kombinieren, um spezifische Verhaltensweisen zu isolieren. Beispielsweise konfigurieren Sie eine Regel, die Herumlungern kennzeichnet, indem Sie Personenerkennung mit einem Verweilzeit‑Schwellenwert kombinieren. Falls Sie eine schnelle Referenz benötigen, zeigt unsere Anleitung zur Herumlungern-Erkennung in Flughäfen praktische Regelsets.
Feinabstimmung erfordert einen Ausgleich zwischen Sensitivität und Fehlalarmen. Beginnen Sie mit konservativen Schwellenwerten und senken Sie diese selektiv an problematischen Kameras. Verwenden Sie kurze Validierungszyklen und vergleichen Sie Analyseereignisse mit dem Ground‑Truth‑Video. Bei überfüllten Szenen oder schlechten Lichtverhältnissen wählen Sie ein KI‑Modell, das für diese Bedingungen optimiert ist, und passen Sie Konfidenz‑Schwellen an. Visionplatform.ai bietet flexible Modellstrategien, sodass Sie Modelle mit lokalen Aufnahmen nachtrainieren oder verfeinern können, um Fehlalarme zu reduzieren und gleichzeitig den Datenschutz zu wahren.

Setzen Sie außerdem kamerenspezifische Konfigurationen ein. Passen Sie Kameraeinstellungen wie Belichtung und Bildrate an, um dem Modell bestmögliches Quellvideo zu liefern. Validieren Sie Änderungen, indem Sie retrospektive Suchabfragen ausführen und erkannte Objekte vor und nach dem Tuning vergleichen. Dokumentieren Sie abschließend Regeländerungen und behalten Sie versionierte Modell‑Metadaten, falls Sie Entscheidungen prüfen oder Ergebnisse reproduzieren müssen. Diese Validierungspraktik sorgt für verlässliche Alarme und zuverlässige Suchergebnisse.
nx witness‑ und Video‑Analytics‑Leistung: Kennzahlen und bewährte Verfahren
Überwachen Sie Schlüsselkennzahlen wie Latenz, Durchsatz und Erkennungsgenauigkeit, um das System gesund zu halten. Messen Sie die End‑to‑End‑Latenz vom Quellvideo bis zum Erkennungsereignis und verfolgen Sie die Anzahl der Streams pro Analytics‑Knoten. CPU‑ und GPU‑Monitoring liefert Einblicke in die Auslastung der Rechenleistung und in Faktoren, die die Performance beeinträchtigen können. Beobachten Sie außerdem Arbeitsspeicher und Festplatten‑I/O, während der nx witness‑Server gleichzeitige Videoaufzeichnung und Analyseverarbeitung handhabt.
Skalieren Sie, indem Sie Lasten über mehrere NX‑Knoten verteilen und dedizierte Media‑Server‑Hosts für die Aufzeichnung einsetzen. Wenn Sie über Standorte hinweg bereitstellen müssen, replizieren Sie die Konfiguration und testen Sie zunächst einen begrenzten Piloten. Dokumentieren Sie Serverspezifikationen und die Anzahl der Streams pro Knoten, damit Sie Kapazitäten planen können. Verwenden Sie Automatisierung, um Dienste neu zu starten, wenn Healthchecks fehlschlagen, und um Logs für die langfristige Aufbewahrung zu rotieren. Zur Referenz nativer Funktionen sehen Sie, wie nx witness Integrationen und Kamerainfrastrukturen auf der Anbieter‑Integrationsseite unterstützt (Network Optix‑Integrationen).
Wartungsroutinen sollten Plugin‑Updates, Modellaktualisierungen und periodische Kalibrierung der Kameraeinstellungen umfassen. Wenn Sie das Plugin aktivieren, halten Sie einen Zeitplan bereit, um die Testlizenz zu aktivieren und nach der Validierung auf einen Produktionsschlüssel umzuschalten. Sichern Sie Konfiguration und Objekt‑Metadaten vor größeren Änderungen. Nutzen Sie schließlich Kennzahlen zur Steuerung des Tunings, damit Erkennungsgenauigkeit und Systemleistung mit den operativen Anforderungen in Einklang bleiben. Dieser Ansatz hilft, Videodaten in verwertbare Erkenntnisse zu verwandeln, die Sicherheit und Betrieb in großem Maßstab unterstützen.
FAQ
Wie fügt nx witness bestehenden Kameraparks KI hinzu?
nx witness integriert Analyse‑Plugins und In‑Camera‑Analytics, um KI hinzuzufügen, ohne Kameras ersetzen zu müssen. Sie können Kameras Analysepipelines zuordnen und Videos lokal auf dem nx witness‑Server oder auf einem angeschlossenen Analytics‑Knoten verarbeiten.
Welche Erkennungen werden bei der Verwendung von KI mit nx witness unterstützt?
Unterstützte Erkennungen umfassen Personen, Fahrzeuge und Tiere sowie Attribut‑Tagging wie Pose und Richtung. Zusätzliche benutzerdefinierte Klassen sind durch Modellauswahl und Nachtraining möglich.
Wie genau ist die KI‑Erkennung im Vergleich zur Bewegungsdetektion?
Moderne KI erreicht in vielen Szenarien oft eine Genauigkeit über 90 % und reduziert Fehlauslösungen, die bei einfacher Bewegungsdetektion auftreten (Branchenleitfaden). Das verringert die manuelle Überprüfungszeit und verbessert den operativen Fokus.
Wie läuft der Installationsprozess für das cvedia-rt AI‑Analytics‑Plugin ab?
Die Installation umfasst das Ablegen der Plugin‑Dateien auf dem nx witness‑Server, das Neustarten von Diensten und das Aktivieren des Plugins über die Serverkonsole. Das Herstellerhandbuch bietet Schritt‑für‑Schritt‑Anleitungen und eine Testlizenzoption (Handbuch).
Kann ich historisches Filmmaterial nach bestimmten Objekten durchsuchen?
Ja. Verwenden Sie die Objektsuche und retrospektive Suchfunktionen, um Archive nach Objektattributen, Zeitbereichen und Regionen abzufragen. Exporte umfassen Clips und Metadaten, um eine Beweiskette für Ermittlungen zu erhalten.
Wie tune ich KI‑Modelle für überfüllte oder schlecht beleuchtete Szenen?
Feinabstimmung erfolgt durch Auswahl eines geeigneten KI‑Modells und Anpassung von Konfidenzschwellen sowie Kameraeinstellungen. Validieren Sie Änderungen über retrospektive Abfragen und iterieren Sie die Regel‑Sensitivität, um ein Gleichgewicht zwischen Fehlmeldungen und verpassten Erkennungen zu finden.
Unterstützt nx witness In‑Camera‑Analytics?
Ja, nx witness unterstützt native In‑Camera‑Analytics führender Hersteller und kann Analyseereignisse zusammen mit Video einspielen. Das ermöglicht flexible Architekturen, die Edge‑ und In‑Camera‑Verarbeitung mischen.
Welche Wartung ist für eine mit KI erweitere nx witness‑Bereitstellung erforderlich?
Planen Sie Plugin‑Updates, Modellaktualisierungen und periodische Kalibrierung der Kameraeinstellungen ein. Überwachen Sie CPU/GPU‑Nutzung und Stream‑Anzahlen, um Skalierungsbedarf zu antizipieren und die Systemleistung zu schützen.
Wie arbeitet Visionplatform.ai mit nx witness zusammen?
Visionplatform.ai integriert sich mit nx witness, um Personen, Fahrzeuge und benutzerdefinierte Objekte in Echtzeit zu erkennen und strukturierte Ereignisse für den Betrieb zu veröffentlichen. Die Lösung fokussiert sich auf On‑Prem‑, DSGVO‑freundliche Bereitstellung und Modellanpassung an lokalen Daten.
Können Alarme so getunt werden, dass Fehlalarme vermieden werden?
Ja. Erstellen Sie Ereignisregeln, die Erkennungsklassen, Verweilzeiten und Regiondurchquerungen kombinieren, um Störmeldungen zu reduzieren. Verwenden Sie anfangs konservative Schwellenwerte und validieren Sie diese mit retrospektiver Suche, um Zuverlässigkeit sicherzustellen.