Datenschutzbeauftragter fordert Unternehmen auf, die emotionale Analyse-KI-Software PlatoBlockchain Data Intelligence einzustellen. Vertikale Suche. Ai.

Datenschutzbeauftragter fordert Unternehmen auf, emotionale Analyse-KI-Software einzustellen

Unternehmen sollten zweimal überlegen, bevor sie KI-gestützte emotionale Analysesysteme einsetzen, die anfällig für systemische Verzerrungen und andere Snafus sind, warnte das britische Information Commissioner’s Office (ICO) diese Woche.

Organisationen müssen mit Ermittlungen rechnen, wenn sie weitermachen und diese unterdurchschnittliche Technologie verwenden, die Menschen in Gefahr bringt, fügte der Wachhund hinzu.

Algorithmen für maschinelles Lernen, die vorgeben, die Stimmungen und Reaktionen einer Person vorherzusagen, verwenden Computervision, um Blicke, Gesichtsbewegungen und Audioverarbeitung zu verfolgen, um die Neigung und die allgemeine Stimmung zu messen. Wie man sich vorstellen kann, ist dies nicht unbedingt genau oder fair, und es kann zu Datenschutzproblemen beim Umgang mit Daten für Schulungen und Schlussfolgerungen kommen.

In der Tat sagte der stellvertretende ICO-Kommissar Stephen Bonner, die Technologie sei nicht narrensicher, was zu systemischer Voreingenommenheit, Ungenauigkeit oder Diskriminierung bestimmter sozialer Gruppen führe. „Die Entwicklungen auf dem Markt für Biometrie und emotionale KI sind noch nicht ausgereift. Sie funktionieren möglicherweise noch nicht oder überhaupt nicht “, sagte er sagte in einer Erklärung. 

„Während Chancen vorhanden sind, sind die Risiken derzeit größer. Beim ICO sind wir besorgt, dass eine falsche Analyse von Daten zu ungenauen Annahmen und Urteilen über eine Person führen und zu Diskriminierung führen könnte“, fuhr seine Erklärung fort.

Bonner stellte fest, dass Software zur emotionalen Analyse oft mit biometrischen Systemen kombiniert wird, die eine breitere Palette persönlicher Informationen sammeln und speichern, die über Gesichtsbilder hinausgehen. Softwareanbieter machen oft nicht transparent, wie diese personenbezogenen Daten verarbeitet oder gespeichert werden. 

„Die einzigen nachhaltigen biometrischen Anwendungen werden diejenigen sein, die voll funktionsfähig, rechenschaftspflichtig und von der Wissenschaft unterstützt sind“, sagte er. „So wie es aussieht, müssen wir noch feststellen, dass sich eine Emotions-KI-Technologie so entwickelt, dass sie den Datenschutzanforderungen entspricht, und haben allgemeinere Fragen zu Verhältnismäßigkeit, Fairness und Transparenz in diesem Bereich.“

Was eine höfliche Art zu sagen scheint: Sie sollten nur KI-Modelle zum Lesen von Emotionen verwenden, die so funktionieren, wie es das ICO erwartet, und diese Modelle existieren nicht, also sollten Sie einfach aufhören, was Sie tun.

Die britische Datenschutzbehörde wird voraussichtlich im Frühjahr nächsten Jahres einen Bericht veröffentlichen, in dem detailliert beschrieben wird, wie biometrische Daten, einschließlich Gesichtserkennung, Fingerabdruckerkennung und Spracherkennung, von Unternehmen gehandhabt werden sollten.

„Das ICO wird den Markt weiterhin genau untersuchen, Interessengruppen identifizieren, die diese Technologien entwickeln oder einsetzen möchten, und die Bedeutung eines verbesserten Datenschutzes und der Einhaltung von Vorschriften erläutern und gleichzeitig das Vertrauen in die Funktionsweise dieser Systeme fördern“, fügte Bonner hinzu.

Über Sentiment- und Emotionsanalysen schlagen Experten seit Jahren Alarm. Gefühle sind subjektiv und es ist schwierig, sie genau zu interpretieren. Menschen können dies oft nicht effektiv für sich oder andere tun, geschweige denn Maschinen. ®

Zeitstempel:

Mehr von Das Register