Erkennung zurückgelassener Gegenstände in öffentlichen Zoo-Bereichen

Oktober 7, 2025

Use cases

Objekterkennung: Herausforderungen und Umfang der Erkennung zurückgelassener Gegenstände in öffentlichen Bereichen von Zoos

Zurückgelassene GEGENSTÄNDE in Zoos erfordern klare Ziele, fokussierte Systeme und praxisnahe Regeln. Das Hauptziel ist, unbeaufsichtigte oder verdächtige Objekte schnell zu erkennen, damit das Personal reagieren und Besucher sicher bleiben können. In der Praxis bedeutet das eine Erkennungs-Pipeline, die ein statisches Objekt markiert, es als potenziellen Fundsachen- oder Sicherheitsrisiko klassifiziert und innerhalb von Sekunden einen Alarm auslöst. Zooteams benötigen außerdem eine geringe Fehlalarmrate, damit die Zeit des Personals nicht verschwendet wird und normales Besucherverhalten nicht wiederholt Eingriffe auslöst.

Zoos unterscheiden sich in mehreren Punkten von kontrollierten Bereichen wie Flughäfen und U-Bahnhöfen. Erstens variiert die Beleuchtung auf Freiluftwegen, in schattigen Wäldchen und an Schaufenstern mit Glasfronten. Zweitens umfassen Hintergründe Vegetation, Felsen und sich bewegende Tiere, die die Vordergrunderkennung erschweren. Drittens ist das Besucherverhalten heterogen: Menschen sitzen auf Bänken, picknicken in der Nähe von Exponaten und lassen Kinderwagen oder Picknickkörbe zurück, die wie herrenloses Gepäck aussehen können. Diese Faktoren erfordern eine spezialisierte Abstimmung von Objekterkennungs- und Tracking-Systemen und nicht nur Standardmodelle von der Stange.

Leistungsziele für praktische Einsätze in Zoos sind ambitioniert, aber realistisch. Auf Lösungen für den öffentlichen Verkehr modellierte Systeme zielen in kontrollierten Bedingungen auf eine Erkennungsgenauigkeit von über 90 % und Echtzeitverarbeitung mit mehr als 30 Bildern pro Sekunde, um zeitnahe Alarme zu liefern. Beispielsweise berichten Übersichten zur Erkennung unbeaufsichtigter Gegenstände, dass State-of-the-Art-Systeme in strukturierten Umgebungen >90 % Genauigkeit erreichen (Forschungsübersicht). Diese Benchmarks geben Erwartungen für Zoodeployments vor, aber Feldanpassungen sind entscheidend, weil natürliche Szenen Rauschen hinzufügen.

Andere Metriken sind ebenfalls wichtig. Die Erkennungsverzögerung sollte gering sein, damit ein Sicherheitsteam einen Alarm innerhalb von Sekunden verifizieren kann. Fehlalarme müssen reduziert werden, um Alarmmüdigkeit zu vermeiden. Und das System sollte den Betrieb über reine Sicherheit hinaus unterstützen, zum Beispiel indem Fundsachen-Alarme in einen Fundbüro-Workflow verknüpft werden. Visionplatform.ai hilft dabei, CCTV in ein operatives Sensornetz zu verwandeln, das Alarme in bestehende VMS- und MQTT-Streams einspeist, sodass Teams auf Ereignisse sowohl in Betrieb als auch in der Sicherheit reagieren können.

Das Gleichgewicht zwischen Erkennungsleistung und Privatsphäre ist ebenfalls entscheidend. Zoos arbeiten unter Regelungen für öffentlichen Zugang, und Überwachung muss die Privatsphäre der Besucher respektieren und gleichzeitig die Sicherheit gewährleisten. Datenhoheit und On-Premise-Verarbeitung können helfen, DSGVO- und EU-KI-Gesetzes-Anliegen zu adressieren. Schließlich liefert eine modulare Architektur, die Kameras, Edge-Processing und eine klare Eskalationsrichtlinie kombiniert, eine praktische Erkennung von zurückgelassenen Gegenständen in belebten, offenen und naturalistischen Zoo-Umgebungen.

deep learning: Advanced AI Models for Abandoned Object Detection

Deep Learning prägt moderne Ansätze zur Erkennung zurückgelassener Gegenstände. Convolutional Neural Networks treiben schnelle Detektoren und robuste Merkmalsextraktion an. Bewährte Architekturen wie YOLOv7 liefern hochgeschwindige Echtzeiterkennung, während ResNet kombiniert mit FPN-Schichten die Multi-Skalen-Erkennung stabilisiert und die Erkennung kleiner oder verdeckter Objekte verbessert. Wenn Teams einen schnellen Detektor mit einem merkmalsreichen Backbone kombinieren, erreichen sie sowohl Geschwindigkeit als auch Präzision.

Tiefeninformationen reduzieren zusätzlich Fehlalarme. Stereo-Kameras und 3D-verbesserte Bildverarbeitung liefern Tiefenschätzungen, die helfen, eine stationäre Tasche von natürlichem Durcheinander oder bodennaher Vegetation zu trennen. Das Austrian Institute of Technology beschreibt einen Left-Object-Detector, der Stereo-Vision und 3D-verbesserte Verarbeitung verwendet, um irrtümliche Alarme in Innenräumen zu reduzieren (AIT left object detector). In offenen Zoowegen hilft ähnliche Tiefenwahrnehmung, eine auf einer Bank liegende Tasche von einem Felsen oder einer Pflanze zu unterscheiden.

Experten betonen das Modell-Tuning für Zoo-Szenen. Wie Dr. Sahil Bishnoi anmerkt: „Während die Kernalgorithmen zur Erkennung robust sind, erfordert deren Einsatz in dynamischen Umgebungen wie Zoos ein sorgfältiges Tuning der Modelle, um natürliche Hintergründe und variable Lichtverhältnisse zu berücksichtigen“ (Bishnoi-Bericht). Dieses Tuning umfasst Thresholding, Hintergrundmodellierung und Klassen-Gewichtung, damit Bänke, Kinderwagen und Spielzeug nicht wiederholt Alarme auslösen.

Praktische Implementierungen koppeln oft einen YOLOv7-ähnlichen Detektor mit einem Tracking-System, um Identität und Verweilzeit zu erhalten. So kann das System ein Objekt erst dann markieren, wenn es für eine konfigurierte Zeitspanne stationär geblieben ist. Deep-Learning-basierte Segmentierung kann Vordergrundobjektmasken von Laubwerk und Pflaster trennen, was die Klassifizierung verbessert und Fehlalarme reduziert. Zusätzlich beschleunigt Transfer Learning auf zoo-spezifischen Bildern die Anpassung und verringert den Bedarf an massiven, gelabelten Datensätzen.

Um den betrieblichen Anforderungen gerecht zu werden, muss das Objekterkennungsmodell auf Edge-Hardware oder einem GPU-Server laufen und sich in ein VMS integrieren lassen. Visionplatform.ai bietet flexible Einsatzwege, lokal oder auf Edge-Geräten wie NVIDIA Jetson, sodass Zootreiber Deep-Modelle lokal betreiben und Daten in ihrer Umgebung behalten können. Dieser Ansatz unterstützt sowohl hohe Erkennungsraten als auch die Einhaltung von Datenschutzregeln.

Weg im Zoo mit Kameraüberwachung

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

machine learning: Datasets, Training and Performance Benchmarks for Zoo Environments

Gute Datensätze sind entscheidend für ein Erkennungsprojekt. Bestehende ULOD-Datensätze stammen aus Flughäfen, Bahnhöfen und Einkaufszentren, aber Zoo-Szenen unterscheiden sich. Ein robuster Trainingsplan mischt öffentliche ULOD-Sammlungen mit kundenspezifischen Zoo-ähnlichen Bildersätzen, die Bänke, Picknickbereiche, Laubwerk und Kinderwagen enthalten. Ein Datensatz sollte unterschiedliche Beleuchtungen, saisonale Belaubung und Beispiele normaler statischer Objekte wie Mülleimer, Beschilderung und Futterspender enthalten. Mindestens vier verschiedene Szenetypen — Eingänge, Gastronomiebereiche, Perimeter von Ausstellungen und schattige Wege — helfen Modellen, zu generalisieren.

Data Augmentation ist unerlässlich. Künstliche Verdeckung, Helligkeitsverschiebungen und Bewegungsunschärfe-Trainingsfälle helfen Modellen, mit realer Zoo-Beleuchtung und Besucherbewegung umzugehen. Augmentierungen sollten Kamerawackeln, Regen und gesprenkeltes Sonnenlicht nachahmen. Trainingsprotokolle nutzen typischerweise transfer-learning-basierte Keyframe-Erkennung und feintunen dann auf Zoo-Beispielen, damit das Modell standortspezifische Muster lernt, ohne zu überanpassen.

Benchmarks aus verwandten Domänen zeigen greifbare Verbesserungen. Forschungsergebnisse deuten darauf hin, dass tiefe Architekturen wie ResNet + FPN Fehlalarme in Fahrzeug- und Innenraumumgebungen um etwa 15–20 % verringerten im Vergleich zu älteren Techniken (IEEE-Studie). Die Anwendung dieser Architekturen auf Zoo-Datensätze sollte ähnliche Verbesserungen bringen, sobald der Datensatz die natürliche Hintergrundvariabilität abdeckt. In kontrollierten Experimenten erreichten State-of-the-Art-Systeme zur Erkennung unbeaufsichtigter Objekte mehr als 90 % Genauigkeit, was eine aspirative Basislinie für Zoo-Deployments setzt (ULOD-Übersicht).

Die Evaluierung muss relevante Metriken verwenden. Neben der Erkennungsgenauigkeit sollten mittlere Zeit bis zum Alarm, Fehlalarmrate pro Stunde und Erkennungsraten für kleine oder teilweise verdeckte Objekte erfasst werden. Cross-Validation auf Zeit-des-Tages-Splits ist wichtig, damit Modelle Änderungen zwischen hellem Mittagslicht und spätem Nachmittag handhaben. Außerdem sollte Umgebungsmetadaten wie Wetter und Besucherdichte protokolliert werden, um Leistungsfaktoren zu verstehen.

Praktisch sollten Teams Pilotstudien in Zielzonen des Zoos durchführen und einen gelabelten Validierungsdatensatz vor Ort sammeln. Der Ansatz von Visionplatform.ai, vorhandenes VMS-Material für lokales Modelltraining zu nutzen, reduziert Datenbewegung und beschleunigt iterative Verbesserungen. Das hält Daten privat und ermöglicht dem Betrieb, dasselbe Videomaterial auch für Analysen jenseits der Sicherheit wiederzuverwenden, etwa Besucherflussanalyse und Diebstahlprävention.

object tracking: Multi-Camera and Sensor Fusion for Continuous Monitoring

Erkennung ist notwendig, aber Tracking macht Alarme handhabbar. Ein rein detektionbasiertes Feed kann ein verdächtiges Objekt markieren, aber die Verknüpfung dieses Objekts mit Personen und Bewegungen erfordert kontinuierliches Tracking. Multi-Kamera-Installationen decken lange Sichtlinien ab, und Sensorfusion sorgt für Robustheit bei Verdeckungen und wechselnder Beleuchtung. In der Praxis kombinieren Systeme einen Detektor mit einem Tracking-Algorithmus wie ByteTrack, um Identitäten über Frames und Kameras hinweg konsistent zu halten.

ByteTrack-ähnliche Methoden funktionieren gut mit YOLOv7-Detektoren, weil sie Geschwindigkeit mit verlässlicher ID-Zuordnung verbinden. Diese Kombination unterstützt Dwell-Time-Logik: Ein Gegenstand gilt erst als verlassen, nachdem er für eine konfigurierte Zeit statisch geblieben ist und innerhalb der Nähe keine zugeordnete Person sichtbar ist. Die Integration von Multi-Kamera-Tracking erlaubt es dem System, einem Objekt zu folgen, während Personen vorbeigehen oder sich die Beleuchtung ändert, und reduziert so Fehlalarme.

Das Netzwerkdesign konzentriert sich auf hochfrequentierte Zonen. Eingänge, Spielplätze, Gastronomiebereiche und Zugänge zu Ausstellungen benötigen dichtere Kameraplatzierung und überlappende Sichtfelder. Ein Geflecht überlappender Kameras hilft, tote Winkel hinter Vegetation und Skulpturen zu beseitigen. Für zoo-spezifische Anwendungsfälle bietet eine verteilte Topologie, die Ereignisse an ein zentrales VMS streamt und rohes Videomaterial lokal hält, Skalierbarkeit und Datenschutz.

Umgang mit Verdeckung ist eine zentrale technische Herausforderung. Menschen drängen sich in der Nähe von Gehegen und kreuzen häufig Wege. Zur Bewältigung sollten Vision, Thermik und Tiefensensorik fusioniert werden. Thermalkameras können Menschen hinter Laub bei Nacht oder in schattigen Anlagen aufspüren, während Stereo-Tiefenangaben bestätigen, ob ein Objekt am Boden liegt oder Teil der Szenerie ist. Das Austrian Institute of Technology dokumentiert den Nutzen 3D-verbesserter Verarbeitung zur Reduzierung von Fehlalarmen (AIT). Zusätzlich erlauben Systemdesigns, die strukturierte Ereignisse veröffentlichen, dem Betrieb, Erkennungssignale mit Besucherdaten und Vermisstenkind-Workflows zu kombinieren (Workflows zur Erkennung vermisster Kinder).

Schließlich müssen praktische Deployments Bandbreite und Rechenleistung berücksichtigen. Edge-Inferenz nahe der Kamera reduziert die zentrale Last, während ein Event-Bus wie MQTT strukturierte Erkennungen für nachgelagerte Tools streamt. Visionplatform.ai unterstützt Edge- und On-Prem-GPU-Deployments, sodass Multi-Kamera-Tracking von wenigen Streams auf Hunderte skaliert, ohne rohes Filmmaterial off-site zu verschieben. Dieses Design verbessert Echtzeiterkennung, reduziert Latenz und behält die Datenkontrolle beim Betreiber.

Karte der Kamera- und Sensorabdeckung im Zoo

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

detection and tracking: Real-Time Pipeline and System Architecture

Eine einheitliche Echtzeit-Pipeline verknüpft Erkennung, Tracking und Alarmierung zu einem nutzbaren System. Die Pipeline beginnt typischerweise mit der Frame-Erfassung von Kameras, durchläuft dann eine leichte Vorfilterungsstufe, um leere Frames zu eliminieren. Anschließend verarbeitet ein Detektor den Frame, um Kandidatenobjekte zu identifizieren, und ein Tracker erhält die Identität über Frames hinweg. Ein Dwell-Time-Modul entscheidet, ob ein Objekt verlassen ist, und ein Alarmmodul sendet Benachrichtigungen an Operatoren oder andere Systeme.

Um in Hochprioritätszonen 30 FPS Verarbeitung pro Stream zu erreichen, empfiehlt sich eine hybride Architektur. Nutzen Sie Edge-Geräte für die Echtzeit-Inferenz nahe den Kameras und einen On-Prem-GPU-Cluster für schwerere Aggregationsaufgaben und Modellretraining. So wird die Rechenlast aufgeteilt: Edge übernimmt latenzkritische Erkennung und der zentrale Server unterstützt Analytik und Speicherung. Echtzeit-Objektalarme fließen dann in das VMS des Zoos oder in MQTT-Feeds zur Integration mit Dashboards und Betriebssystemen.

Sensorfusion spielt eine wichtige Rolle für die Genauigkeit. Nur visuelle Pipelines können natürliche Elemente als stationäre Objekte fehlklassifizieren. Das Hinzufügen von Tiefeninformationen aus Stereo-Kameras, thermischen Kontrasten oder Kurzstreckenradar hilft zu bestätigen, dass ein erkanntes Vordergrundobjekt tatsächlich verdächtig oder verlassen ist. Das Beep Left-Behind Detection-Projekt zeigt, wie die Kombination von YOLOv7 mit Tracking die praktische Erkennung unbeaufsichtigter Objekte in Videostreams verbessert (Beep-Bericht). Nutzen Sie diese Erkenntnisse, um Richtlinien dafür festzulegen, wann ein Ereignis an die Sicherheit eskaliert oder wann ein Fundsachen-Ticket für den Betrieb erstellt wird.

Skalierbarkeit und prüfbare Logs sind für Compliance wichtig. Ereignisprotokolle sollten Erkennungsmetadaten, Modellversion, Konfidenzwerte und den für die Überprüfung verwendeten Videoausschnitt speichern. Diese Transparenz unterstützt DSGVO- und EU-KI-Act-Readiness, weil Teams zeigen können, wie Modelle arbeiten und warum ein Alarm ausgelöst wurde. Die Plattform von Visionplatform.ai hält Modelle und Training lokal und veröffentlicht strukturierte Ereignisse, was hilft, regulatorische und betriebliche Anforderungen zu erfüllen.

Stellen Sie schließlich Fallback-Prozesse sicher. Wenn ein menschlicher Operator einen Alarm verifiziert, sollte das System eine schnelle Annotation ermöglichen, um den Datensatz zu verbessern. Kontinuierliche Verbesserungen durch Closed-Loop-Retraining reduzieren zukünftige Fehlalarme. Diese praktische Pipeline stellt sicher, dass Erkennung und Tracking zusammenarbeiten, um zeitnahe, umsetzbare Alarme für Zooteams zu liefern.

solutions in object detection: Addressing Zoo-Specific Challenges and Future Directions

Zoo-spezifische Deployments müssen Umweltvariabilität, Privatsphäre und betriebliche Integration lösen. Wetter- und Beleuchtungswechsel erzeugen sich ändernde Hintergründe, daher müssen Modelle robust gegenüber Regen, Morgendämmerung, Abenddämmerung und saisonalen Laubwechseln sein. Training mit diversen Datensatzproben und Augmentierungen hilft, und Laufzeit-Anpassungen wie dynamisches Thresholding und Helligkeitsnormalisierung verringern Fehlerquoten. In der Praxis ist Multisensor-Fusion der zuverlässigste Weg zu robuster Erkennung zurückgelassener Gegenstände in komplexen Szenen.

Privatsphäre und Ethik stehen im Mittelpunkt. Zoos richten sich an Familien und Touristen, daher muss die Überwachung verhältnismäßig und transparent sein. Bewahren Sie Rohvideo lokal auf, begrenzen Sie die Aufbewahrung auf notwendige Zeiträume und sorgen Sie nach Möglichkeit für eindeutige Beschilderung. Technisch gesehen sollte Verarbeitung am Edge erfolgen, nur Metadaten für Analysen gespeichert werden und Manager Kontrolle über Modellkonfigurationen behalten. Das On-Prem- und Edge-First-Design von Visionplatform.ai unterstützt diese Anforderungen, indem Training und Inferenz innerhalb der Betreiberumgebung verbleiben.

Forschung und Produkt-Roadmaps weisen auf mehrere zukünftige Richtungen hin. Multimodale KI-Modelle, die visuelle, thermische und Radar-Eingänge kombinieren, werden Verdeckung und schlechte Lichtverhältnisse besser handhaben. Domänenspezifisches Transfer Learning und synthetische Datengenerierung können Zoo-ähnliche Datensätze erweitern, ohne langwierige manuelle Labeling-Kampagnen. Schließlich werden Edge-AI-Deployments mehr Intelligenz näher an die Kameras bringen, was schnellere Alarme und geringere Abhängigkeit von Netzwerkbandbreite ermöglicht.

Betrieblich sollten Erkennungen mit anderen Zoo-Analysen integriert werden. Beispielsweise verbessert die Verknüpfung von Alarmen zu zurückgelassenen Gegenständen mit Besucherfluss-Dashboards oder Reinigungs-Optimierungs-Wärmekarten die Reaktions-Workflows und Ressourcenzuteilung. Siehe unsere Arbeit zu Besucherfluss und Zonenauslastung für Ideen, wie Erkennungs-Streams breitere Betriebsfunktionen unterstützen können (Besucherfluss & Zonenauslastung). Schauen Sie auch auf die Erkennung zurückgelassener Gegenstände in Einkaufszentren für methodische Anpassungen, die auf offene Räume anwendbar sind (Erkennung zurückgelassener Gegenstände in Einkaufszentren).

Zusammenfassend: Setzen Sie ein Multi-Kamera-Netz mit Stereo-Tiefe ein, stimmen Sie Deep-Learning-Modelle auf Zoo-Datensätze ab und führen Sie Inferenz auf geeigneter Hardware am Edge aus. Kombinieren Sie das mit klaren Betriebsrichtlinien und datenschutzfreundlicher Handhabung. Diese Schritte machen zuverlässige Erkennung zurückgelassener Gegenstände in öffentlichen Bereichen von Zoos erreichbar und betriebsrelevant.

FAQ

Worin unterscheidet sich die Erkennung zurückgelassener Gegenstände in Zoos im Vergleich zu Flughäfen?

Zoos haben natürliche Hintergründe, variable Beleuchtung und sich bewegende Tiere, die die Vordergrunderkennung erschweren. Flughäfen sind meist kontrolliert, mit stabiler Beleuchtung und vorhersehbarem menschlichem Verhalten, was die Erkennungsgenauigkeit verbessert.

Welche KI-Modelle eignen sich am besten für Echtzeiterkennung in Zoo-Umgebungen?

Hochgeschwindigkeits-Detektoren wie YOLOv7 in Kombination mit einem ResNet + FPN-Backbone bieten ein gutes Gleichgewicht aus Geschwindigkeit und Genauigkeit. Für tiefenbewusste Szenarien sollte man Vision-Modelle mit Stereo-Verarbeitung kombinieren, um Fehlalarme zu reduzieren.

Wie wichtig ist Sensorfusion für verlässliche Alarme?

Sehr wichtig. Das Hinzufügen von Thermik- oder Tiefensensoren hilft zu bestätigen, dass ein erkanntes Vordergrundobjekt kein natürliches Durcheinander oder Teil des Bodens ist. Fusion reduziert Fehlalarme, besonders in schattigen oder verdeckten Bereichen.

Kann bestehendes CCTV zur Erkennung zurückgelassener Gegenstände verwendet werden?

Ja. Systeme, die auf vorhandenen Kameras laufen und sich in ein VMS integrieren lassen, ermöglichen es Standorten, Aufnahmen für Training und Live-Alarme wiederzuverwenden. On-Prem- oder Edge-Deployments halten Daten lokal und verbessern die Compliance.

Wie reduziert man Fehlalarme in Außenbereichen von Zoos?

Nutzen Sie Tiefeninformationen, domänenspezifische Trainingsdaten und abgestimmte Dwell-Time-Schwellen. Wenden Sie außerdem Augmentierungen für Beleuchtung und Verdeckung während des Trainings an, um Modelle robust gegenüber realen Bedingungen zu machen.

Welche Rolle spielt Tracking bei der Erkennung zurückgelassener Gegenstände?

Tracking verknüpft Detektionen über Frames und Kameras hinweg, sodass das System entscheiden kann, ob ein Objekt wirklich verlassen ist, basierend auf Verweilzeit und nahegelegenen Personen. Algorithmen wie ByteTrack funktionieren gut in überfüllten Umgebungen.

Welche Genauigkeit können Betreiber von diesen Systemen erwarten?

Benchmarks aus verwandten öffentlichen Räumen zeigen, dass State-of-the-Art-Systeme zur Erkennung unbeaufsichtigter Gegenstände in kontrollierten Bedingungen über 90 % erreichen können. Zoo-Deployments streben ähnliche Werte an, nach standortspezifischem Tuning und Erweiterung des Datensatzes.

Wie gehen wir mit Datenschutzbedenken bei der Überwachung um?

Verarbeiten Sie Daten lokal oder am Edge, bewahren Sie Rohvideos nur so lange wie nötig auf und speichern Sie zentral nur Ereignismetadaten. Transparente Richtlinien und prüfbare Logs helfen, die Einhaltung lokaler Vorschriften nachzuweisen.

Welche Datensatzstrategie eignet sich für Zoo-Standorte?

Kombinieren Sie öffentliche ULOD-Datensätze mit kundenspezifischen Zoo-Bildern, die Eingänge, Gastronomiebereiche und Ausstellungsbereiche abdecken. Nutzen Sie Augmentierungen für Verdeckung und Beleuchtungsvariabilität und führen Sie Pilotprojekte vor Ort zur Sammlung gelabelter Validierungsdaten durch.

Wie können Betreiber Erkennungsalarme in den täglichen Ablauf integrieren?

Streamen Sie strukturierte Ereignisse per MQTT oder Webhooks in das VMS und die Betriebssysteme. Verknüpfen Sie Alarme mit Fundsachen-, Reinigungs- oder Sicherheitsworkflows, sodass Erkennungen zu handhabbaren Aufgaben werden und nicht zu isolierten Alarmen.

next step? plan a
free consultation


Customer portal