Menschen, die regelmäßig mit KI-Chatbots sprechen, beginnen oft zu glauben, dass sie empfindungsfähig sind, sagt CEO PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Menschen, die regelmäßig mit KI-Chatbots sprechen, beginnen oft zu glauben, dass sie empfindungsfähig sind, sagt CEO

In Kürze Zahlreiche Menschen beginnen zu glauben, dass sie mit etwas Empfindungsfähigem interagieren, wenn sie mit KI-Chatbots sprechen, so der CEO von Replika, einer App, mit der Benutzer ihre eigenen virtuellen Begleiter entwerfen können.

Die Leute können das Aussehen ihrer Chatbots anpassen und für zusätzliche Funktionen wie bestimmte Persönlichkeitsmerkmale auf Replika bezahlen. Millionen haben die App heruntergeladen und viele chatten regelmäßig mit ihren erfundenen Bots. Einige beginnen sogar zu glauben, dass ihre digitalen Freunde echte Wesen sind, die empfindungsfähig sind.

„Wir sprechen nicht von Verrückten oder Menschen, die Halluzinationen haben oder Wahnvorstellungen haben“, sagte die Gründerin und CEO des Unternehmens, Eugenia Kuyda, sagte Reuters. „Sie sprechen mit KI und das ist ihre Erfahrung.“

Ein Google-Ingenieur Schlagzeilen machte letzten Monat, als er sagte, er glaube, dass eines der Sprachmodelle des Unternehmens bei Bewusstsein sei. Blake Lemoine wurde weitgehend verspottet, aber er scheint nicht der Einzige zu sein, der die KI vermenschlicht.

Diese Systeme sind jedoch nicht empfindungsfähig und täuschen Menschen stattdessen vor, sie hätten eine gewisse Intelligenz. Sie ahmen Sprache nach und würgen sie etwas zufällig wieder, ohne ein Verständnis für Sprache oder die Welt zu haben, die sie beschreiben.

Dennoch sagte Kuyda, dass Menschen von der Technologie beeinflusst werden können.

„Wir müssen verstehen, dass [das] existiert, genauso wie die Menschen an Geister glauben“, sagte Kuyda. „Menschen bauen Beziehungen auf und glauben an etwas.“

Die EU sollte KI-Lügendetektoren verbieten, sagen Aktivisten

Das KI-Gesetz der Europäischen Union, ein Vorschlag zur Regulierung der Technologie, wird noch diskutiert, und einige Experten fordern ein Verbot automatisierter Lügendetektoren.

Private Unternehmen stellen Regierungsbeamten die Technologie zur Verwendung an den Grenzen zur Verfügung. KI-Algorithmen erkennen und analysieren Dinge wie die Augenbewegung, den Gesichtsausdruck und den Ton einer Person, um herauszufinden, ob jemand nicht die Wahrheit sagt. Aktivisten und Rechtsexperten sind jedoch der Meinung, dass es in der EU im Rahmen des bevorstehenden KI-Gesetzes verboten werden sollte.

„Sie müssen beweisen, dass Sie ein Flüchtling sind, und Sie werden für einen Lügner gehalten, sofern nicht das Gegenteil bewiesen wird“, sagt Petra Molnar, stellvertretende Direktorin des gemeinnützigen Refugee Law Lab. sagte Verdrahtet. „Diese Logik liegt allem zugrunde. Es untermauert KI-Lügendetektoren und es untermauert mehr Überwachung und Pushback an den Grenzen.“

Zu versuchen, anhand von visuellen und physischen Hinweisen zu erkennen, ob jemand lügt, ist nicht gerade eine Wissenschaft. Standard-Polygraphentests sind wackelig, und es ist nicht klar, dass die Verwendung automatisierter Methoden zwangsläufig genauer ist. Der Einsatz solch riskanter Technologie bei schutzbedürftigen Menschen wie Flüchtlingen ist nicht ideal.

Kann KI wirklich sagen, wie alt du aussiehst?

Überraschung, Überraschung – KI-Algorithmen, die das Alter einer Person anhand von Bildern vorhersagen sollen, sind nicht immer genau.

In einem Versuch, gegen junge Benutzer vorzugehen, die auf Social-Media-Plattformen über ihr Alter lügen, kündigte Meta an, mit Yoti, einem Computer-Vision-Startup, zusammenzuarbeiten, um das Alter der Menschen zu überprüfen. Diejenigen, die ihr Geburtsdatum manuell ändern, um sich als über 18 zu registrieren, haben die Möglichkeit, ein Video-Selfie hochzuladen, und die Technologie von Yoti wird dann verwendet, um vorherzusagen, ob sie reif genug aussehen.

Aber seine Algorithmen sind nicht immer genau. Reporter von CNN, die getestet eine Online-Demo einer anderen Version der Software auf ihren eigenen Gesichtern, stellte fest, dass die Ergebnisse gut oder schlecht waren. Die Algorithmen von Yoti sagten für einige eine korrekte Zielaltersspanne voraus, lagen jedoch in einem Fall um mehrere Jahre daneben – sie sagten voraus, dass jemand zwischen 17 und 21 aussah, obwohl er tatsächlich Mitte 30 war.

Das System, das Videos von Meta-Benutzern analysiert, hat Berichten zufolge größere Probleme damit, das Alter von Teenagern zwischen 13 und 17 Jahren zu schätzen, die dunklere Hauttöne haben. Es ist schwierig für Menschen, das Alter einer Person zu erraten, indem sie sie nur ansieht, und Maschinen schneiden wahrscheinlich nicht viel besser ab. ®

Zeitstempel:

Mehr von Das Register