Wie wurden die KI-Kameras eingesetzt?
In den vergangenen zwei Jahren wurden an acht Bahnhöfen im Vereinigten Königreich – darunter große Stationen wie London Euston, Waterloo und Manchester Piccadilly – KI-Überwachungstechnologien mit CCTV-Kameras getestet. Ziel war es, das Personal auf Sicherheitsvorfälle aufmerksam zu machen und bestimmte Arten von Kriminalität zu reduzieren.
Im Wesentlichen verpflichtet Artikel 86 AI Act die Betreiber von gewissen KI-Systemen, den betroffenen Personen verständlich darzulegen, welche Einflussfaktoren und Prozesse zu der jeweiligen Entscheidung geführt haben. Dies umfasst die wesentlichen Daten, auf deren Grundlage die Entscheidung getroffen wurde, sowie die Art und Weise, wie das KI-System diese Daten verarbeitet hat.
Welche Technologien kamen zum Einsatz?
Die Tests, die von der Eisenbahninfrastrukturbehörde Network Rail überwacht wurden, nutzten Objekterkennung – eine Form des maschinellen Lernens, die Gegenstände in Videofeeds identifizieren kann. Diese Technologie sollte Personen erkennen, die auf Gleisen herumlungern, Überfüllungen auf Bahnsteigen vorhersagen, unsoziales Verhalten wie Rennen, Schreien, Skateboardfahren und Rauchen identifizieren sowie potenzielle Fahrraddiebe aufspüren. In separaten Tests wurden drahtlose Sensoren eingesetzt, um rutschige Böden, volle Mülleimer und möglicherweise überlaufende Abflüsse zu erkennen.
Dieses Recht auf Information stellt einen Baustein dar, der es den Betroffenen ermöglicht, später weitere Rechte geltend zu machen. In Zusammenschau mit Erwägungsgrund 171 der KI-Verordnung wird deutlich, dass die Bereitstellung von Informationen nach Artikel 86 AI Act essenziell ist, um die Ausübung anderer Rechte – wie etwa eine Beschwerde oder eine Überprüfung – zu ermöglichen.
Wie wurden die Kameras und Sensoren eingesetzt?
Die KI-Tests verwendeten eine Kombination aus „intelligenten“ CCTV-Kameras, die Objekte oder Bewegungen in Echtzeit erkennen können, und älteren Kameras, deren Videofeeds zur Analyse in die Cloud hochgeladen wurden. Laut Dokumenten vom April 2023 waren an jedem Bahnhof zwischen fünf und sieben Kameras oder Sensoren im Einsatz. Eine Tabelle listete 50 mögliche KI-Anwendungsfälle auf, obwohl nicht alle in den Tests verwendet wurden. An einem Bahnhof, London Euston, sollte ein System zur Erkennung von Suizidrisiken getestet werden, doch die Kamera fiel aus, und das Personal sah keinen Bedarf, sie zu ersetzen, da der Bahnhof ein „Endbahnhof“ ist.
Dieses Recht auf Information stellt einen Baustein dar, der es den Betroffenen ermöglicht, später weitere Rechte geltend zu machen. In Zusammenschau mit Erwägungsgrund 171 der KI-Verordnung wird deutlich, dass die Bereitstellung von Informationen nach Artikel 86 AI Act essenziell ist, um die Ausübung anderer Rechte – wie etwa eine Beschwerde oder eine Überprüfung – zu ermöglichen.
Welche Aspekte sind besonders bedenklich?
Besorgniserregend war die Fokussierung auf „Passagierdemografien“. Den Dokumenten zufolge könnten die Kameras Bilder verwenden, um eine „statistische Analyse der Altersgruppen und männlichen/weiblichen Demografien“ zu erstellen und auch Emotionen wie „glücklich, traurig und wütend“ zu analysieren. Die Bilder wurden aufgenommen, wenn Personen eine „virtuelle Stolperfalle“ in der Nähe der Ticketbarrieren überquerten, und zur Analyse an Amazons Rekognition-System gesendet, das Gesichts- und Objekterkennung ermöglicht. Laut den Dokumenten könnte dies die Messung der Passagierzufriedenheit ermöglichen und „diese Daten könnten genutzt werden, um die Werbe- und Einzelhandelseinnahmen zu maximieren“.
Welche Kritik gibt es an der Emotionserkennungstechnologie?
KI-Forscher warnen häufig davor, dass der Einsatz von Technologien zur Emotionserkennung „unzuverlässig“ ist, und einige fordern ein Verbot dieser Technologie aufgrund der Schwierigkeiten, die Gefühle einer Person anhand von Audio- oder Videodaten zu ermitteln. Im Oktober 2022 veröffentlichte die britische Datenschutzbehörde, das Information Commissioner’s Office, eine öffentliche Erklärung, in der sie vor der Verwendung von Emotionserkennung warnte und erklärte, die Technologien seien „unreif“ und „könnten noch nicht funktionieren oder möglicherweise niemals funktionieren“.
Ausblick
Gerade die KI-Verordnung der EU hebt Risiken für derartige stillschweigende Experimente mit großen Gefahren für Grundrechte hervor. Das Vereinigte Königreich hat hier noch einiges aufzuholen.
AI Credits
Bilder: Midjourney
Textunterstützung: ChatGPT