Ludzie, którzy regularnie rozmawiają z chatbotami AI, często zaczynają wierzyć, że są rozumni, mówi CEO PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Ludzie, którzy regularnie rozmawiają z chatbotami AI, często zaczynają wierzyć, że są rozumni, mówi CEO

W skrócie Według dyrektora generalnego Repliki, aplikacji, która pozwala użytkownikom projektować własnych wirtualnych towarzyszy, wiele osób zaczyna wierzyć, że wchodzi w interakcję z czymś czującym, gdy rozmawiają z chatbotami AI.

Ludzie mogą dostosować wygląd swoich chatbotów i płacić za dodatkowe funkcje, takie jak określone cechy osobowości w Repliki. Miliony pobrały aplikację, a wiele z nich regularnie rozmawia ze swoimi wymyślonymi botami. Niektórzy nawet zaczynają myśleć, że ich cyfrowi kumple to prawdziwe istoty, które są świadome.

„Nie mówimy o szalonych ludziach lub ludziach, którzy mają halucynacje lub mają urojenia”, założycielka i dyrektor generalna firmy, Eugenia Kuyda, powiedział Reutera. „Rozmawiają ze sztuczną inteligencją i to jest ich doświadczenie”.

Inżynier Google na nagłówkach w zeszłym miesiącu, kiedy powiedział, że wierzy, że jeden z modeli językowych firmy był świadomy. Blake Lemoine był w dużej mierze wyśmiany, ale nie wydaje się być osamotniony w antropomorfizacji sztucznej inteligencji.

Systemy te nie są jednak świadome i zamiast tego oszukują ludzi, by myśleli, że mają jakąś inteligencję. Naśladują język i regurgitują go nieco przypadkowo, nie mając żadnego zrozumienia języka ani świata, który opisują.

Mimo to Kuyda powiedział, że technologia może wpływać na ludzi.

„Musimy zrozumieć, że [to] istnieje, tak jak ludzie wierzą w duchy” – powiedział Kuyda. „Ludzie budują relacje i w coś wierzą”.

UE powinna zakazać wykrywaczy kłamstw AI, mówią aktywiści

Ustawa Unii Europejskiej o sztucznej inteligencji, propozycja uregulowania tej technologii, jest nadal przedmiotem dyskusji, a niektórzy eksperci wzywają do zakazu automatycznych wykrywaczy kłamstw.

Prywatne firmy dostarczają technologię urzędnikom państwowym do wykorzystania na granicach. Algorytmy sztucznej inteligencji wykrywają i analizują takie rzeczy, jak ruch oczu, wyraz twarzy i ton, aby spróbować rozpoznać, czy ktoś nie mówi prawdy. Jednak aktywiści i eksperci prawni uważają, że powinno to zostać zakazane w UE zgodnie z nadchodzącą ustawą o sztucznej inteligencji.

„Musisz udowodnić, że jesteś uchodźcą i zakłada się, że jesteś kłamcą, chyba że udowodni się inaczej”, Petra Molnar, zastępca dyrektora non-profit Laboratorium Prawa Uchodźców, powiedział Przewodowy. „Ta logika leży u podstaw wszystkiego. Stanowi podstawę wykrywaczy kłamstw AI i wzmacnia inwigilację i odpychanie na granicach”.

Próba wykrycia, czy ktoś może kłamać za pomocą wizualnych i fizycznych wskazówek, nie jest do końca nauką. Standardowe testy wariograficzne są chwiejne i nie jest jasne, czy stosowanie bardziej zautomatyzowanych metod oznacza, że ​​są one bardziej dokładne. Używanie tak ryzykownej technologii na osobach wrażliwych, takich jak uchodźcy, nie jest idealne.

Czy sztuczna inteligencja naprawdę może powiedzieć, ile lat wyglądasz?

Niespodzianka, niespodzianka – algorytmy sztucznej inteligencji zaprojektowane do przewidywania wieku na podstawie obrazów nie zawsze są dokładne.

Próbując rozprawić się z młodymi użytkownikami kłamiącymi na temat swojego wieku na platformach społecznościowych, Meta ogłosiła, że ​​współpracuje z Yoti, start-upem zajmującym się wizją komputerową, w celu weryfikacji wieku ludzi. Osoby, które ręcznie zmienią datę urodzenia, aby zarejestrować się jako osoby powyżej 18 roku życia, mają możliwość przesłania selfie wideo, a technologia Yoti jest następnie wykorzystywana do przewidywania, czy wyglądają wystarczająco dojrzale.

Ale jego algorytmy nie zawsze są dokładne. Reporterzy z CNN, którzy przetestowany demo online innej wersji oprogramowania na własnych twarzach, okazało się, że wyniki były trafione lub chybione. Algorytmy Yoti przewidziały prawidłowy docelowy przedział wiekowy dla niektórych osób, ale w jednym przypadku odbiegały one o kilka lat – przewidując, że ktoś wyglądał na 17-21 lat, gdy faktycznie miał około 30 lat.

Podobno system analizujący filmy użytkowników Meta ma większe trudności z oszacowaniem wieku nastolatków w wieku od 13 do 17 lat, którzy mają ciemniejszą karnację. Ludziom trudno jest odgadnąć czyjś wiek na podstawie samego patrzenia, a maszyny prawdopodobnie nie radzą sobie dużo lepiej. ®

Znak czasu:

Więcej z Rejestr