Kashmir Hill untersucht den heimlichen Aufstieg von Clearview AI

Kashmir Hill untersucht den heimlichen Aufstieg von Clearview AI

Die Gesichtserkennungstechnologie hat sich schnell in unseren Alltag integriert, vom Entsperren von Smartphones bis hin zu personalisierter Werbung.

Doch je allgegenwärtiger es wird, desto intensiver wird auch die Debatte über die ethischen und rechtlichen Grenzen seiner Verwendung. Ein führender Tech-Reporter, Kashmir Hill von der New York Times, hat kürzlich Licht auf ein besonders geheimnisvolles Unternehmen in diesem Sektor geworfen: Clearview AI. Hills Untersuchung legt nahe, dass dieses heimliche Startup die Datenschutznormen möglicherweise dramatisch neu definiert, und das alles unter dem Radar der öffentlichen Kontrolle.

Die alarmierenden Fähigkeiten von Clearview AI

Ein leistungsstarkes Gesichtserkennungstool ist das Herzstück des Angebots von Clearview AI. Laden Sie einfach ein Foto einer Person hoch und das Tool verspricht, Ihnen überall dort zu zeigen, wo das Gesicht online auftaucht. Dazu gehören große Plattformen wie Facebook, Instagram und LinkedIn, aber auch noch weniger offensichtliche Plattformen wie Venmo. Es werden nicht nur Profile angezeigt; Es könnte Bilder offenlegen, von denen Sie nicht einmal wussten, dass sie online sind, was möglicherweise eine Gefährdung darstellt Datenschutz in einem noch nie dagewesenen Ausmaß.

Ein Werkzeug voller Kontroversen

Während die Vorteile für Strafverfolgung klar sind – Verbrechen aufklären, Verdächtige ausfindig machen und mehr –, ist der mögliche Missbrauch beunruhigend. Hill malt ein paar erschütternde Hypothesen: Eine Frau, die eine Klinik verlässt, wird von Demonstranten identifiziert und belästigt, oder ein Fremder in einer Bar, der das Tool nutzt, um eine Fülle persönlicher Daten über jemanden zu ermitteln, den sie gerade erst kennengelernt haben. Dieser Mangel an Kontrolle über persönliche Bilder hat in vielen Bereichen die Alarmglocken schrillen lassen.

Weitere erschwerende Bedenken sind die Genauigkeit der Technologie – oder ein möglicher Mangel daran. Es wurden Fälle von Fehlidentifikationen, insbesondere bei farbigen Menschen, gemeldet. Dies verstärkt nicht nur rassistische Vorurteile bei der Polizeiarbeit, sondern kann auch schwerwiegende Folgen für die zu Unrecht Angeklagten haben.

Von Googles Labs bis zu den Angeboten von Clearview

Interessanterweise ist Clearview AI nicht der erste, der sich in diesen umstrittenen Bereich vorwagt. Tech-Giganten wie Google und Facebook haben sich bereits zuvor mit ähnlichen Technologien beschäftigt. Da sie jedoch die potenziellen Fallstricke erkannten, beschlossen sie, ihre Versionen der öffentlichen Nutzung vorzuenthalten. Diese selbst auferlegte Zurückhaltung macht die Fortschritte von Clearview AI noch bedeutender.

Clearview AI hat nicht nur innovative Technologie entwickelt; Sie nutzten auch eine einzigartige Datenerfassungsmethode. Sie haben systematisch Milliarden von Fotos aus dem Internet gekratzt und dabei viele Quellen ohne ausdrückliche Genehmigung der Plattformen oder der vorgestellten Personen genutzt.

Kashmir Hill untersucht die Stealthy Ascent PlatoBlockchain Data Intelligence von Clearview AI. Vertikale Suche. Ai.

Kashmir Hill untersucht die Stealthy Ascent PlatoBlockchain Data Intelligence von Clearview AI. Vertikale Suche. Ai.

Die verdeckten Operationen von Clearview

Die meiste Zeit ihres frühen Bestehens blieb Clearview AI rätselhaft. Schon die Suche nach ihrem Büro erwies sich für Hill als schwierig, da die angegebene Adresse zu einem nicht existierenden Gebäude führte. Erste Versuche, Kontakt zu Unternehmensvertretern aufzunehmen, scheiterten. Als Hill jedoch ihre Ermittlungen vertiefte, stellte sie fest, dass Clearview ihre Schritte verfolgte. Jedes Mal, wenn die Strafverfolgungsbehörden versuchten, ihr Bild durch das System von Clearview zu übertragen, wurde das Unternehmen alarmiert und intervenierte häufig, wobei es seine invasiven Überwachungsfähigkeiten unter Beweis stellte.

Der wachsende Drang nach regulatorischer Aufsicht

Mit solchen leistungsstarke Technologie Aufgrund ihrer Verfügbarkeit und der nachweislichen Bereitschaft, sie aggressiv zu nutzen, werden Forderungen nach einer behördlichen Aufsicht über Clearview AI immer lauter. Einige Bundesstaaten in den USA, darunter Kalifornien, Colorado, Virginia und Connecticut, haben gesetzliche Bestimmungen eingeführt, die es Einwohnern ermöglichen, die Löschung ihrer Daten aus der Datenbank von Clearview zu beantragen.

Möglicherweise sind jedoch mehr als diese punktuellen Regelungen erforderlich. Da Clearview AI und ähnliche Unternehmen weiterhin neue Maßstäbe bei der Gesichtserkennung setzen, kann ein umfassender nationaler oder sogar globaler Ansatz für den Schutz der Privatsphäre der Bürger von entscheidender Bedeutung sein.

Die Enthüllungen von Kashmir Hill bezüglich Clearview AI unterstreichen die dringende Notwendigkeit eines öffentlichen Diskurses über die Grenzen der Gesichtserkennungstechnologie. Da die Grenze zwischen öffentlich und privat verschwimmt, muss die Gesellschaft entscheiden, wo die Grenzen liegen und wer sie ziehen kann.

Zeitstempel:

Mehr von MetaNews