Następnie białka zaprojektowane przez sztuczną inteligencję dla medycyny

Następnie białka zaprojektowane przez sztuczną inteligencję dla medycyny

Następnie białka zaprojektowane przez sztuczną inteligencję dla medycyny PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Koko, organizacja zajmująca się zdrowiem psychicznym, z powodzeniem wykorzystała ChatGPT, aby pomóc im ulepszyć wsparcie online, ale kiedy użytkownicy dowiedzieli się, że chatbot współtworzy odpowiedzi, dostrzegane korzyści zniknęły.

Odbiór eksperymentu w mediach społecznościowych był mieszany, niektórzy byli zafascynowani potencjałem sztucznej inteligencji w terenie, a inni zdecydowanie sprzeciwiali się wtargnięciu sztucznej inteligencji.

Żadnych skrótów do dobrego samopoczucia psychicznego

Niedawny eksperyment Koko, który uzupełnił ludzkie reakcje ChatGPT początkowo wydawało się oferować znaczące korzyści swoim użytkownikom.

Koko to organizacja non-profit zajmująca się zdrowiem psychicznym, oferująca wsparcie i interwencję każdemu, kto zmaga się ze zdrowiem psychicznym, a zwłaszcza młodzieży. W ramach swojej misji udostępniania zdrowia psychicznego każdemu, firma powiększyła zasoby wolontariuszy o sztuczną inteligencję.

Według założyciela Koko, Roba Morrisa, proces początkowo zakończył się sukcesem. Morris twierdzi, że odpowiedzi wspomagane przez sztuczną inteligencję były początkowo lepiej odbierane i pomagały skracać czas oczekiwania. Niestety, korzyści nie trwały długo.

„Kiedy ludzie dowiedzieli się, że wiadomości były współtworzone przez maszynę, to nie zadziałało. Symulowana empatia wydaje się dziwna, pusta” – napisał Morris na Twitterze zeszły tydzień. „Maszyny nie przeżyły ludzkiego doświadczenia, więc kiedy mówią „to brzmi ciężko” lub „Rozumiem”, brzmi to nieautentycznie”.

Morris w końcu doszedł do wniosku, że chatboty „nie poświęcają czasu na myślenie o tobie. Odpowiedź chatbota, która jest generowana w ciągu 3 sekund, bez względu na to, jak elegancka, wydaje się jakoś tania”.

Integracja ChatGPT into Koko jest częścią wieloletniej współpracy, której początki sięgają czerwca 2020 r., w ramach której ChatGPT pomaga ludzkim asystentom odpowiadać na ponad 30,000 XNUMX wiadomości.

Mieszana odpowiedź

Pomysł interwencji w zakresie zdrowia psychicznego wspomaganej sztuczną inteligencją spotkał się z powszechną fascynacją i niewielkim, ale wyczuwalnym stopniem przerażenia w mediach społecznościowych.

Wiele osób poczuło się urażonych stwierdzeniem Morrisa, że ​​sztuczna inteligencja „brzmi nieautentycznie”, gdy sympatyzuje z ludźmi.

Jako użytkownik Twittera, WłaściwieStryder wskazał, „To nie „brzmi” nieautentycznie, to JEST nieautentyczne. Cała rozmowa to zoptymalizowana mimikra”.

Wiele osób podzielało te same lub podobne odczucia. Inni wyrażali szok lub odrazę i kwestionowali przede wszystkim etykę takiego eksperymentu.

Nie wszyscy byli jednak aż tak przerażeni. HienaMama porównał autentyczność pozytywnie z świadczeniami w zakresie zdrowia psychicznego w ramach brytyjskiej Narodowej Służby Zdrowia (NHS): „Wydawało się to nieautentyczne, gdy pochodziło również od moich lekarzy zajmujących się zdrowiem psychicznym NHS… Przejmę to GPT w dowolnym momencie”.

Jeśli chodzi o fakt, że chatboty nie mają doświadczenia życiowego, dodała, „terapeuci, a zwłaszcza psychiatrzy i psychologowie, również mogli nie mieć doświadczenia życiowego”.

Pragnienie jakiegokolwiek towarzystwa w ogóle

Natychmiastowa reakcja na eksperyment Koko wydaje się sugerować, że ludzkość jest całkiem gotowa na sztuczną empatię, ale czy to się zmieni z czasem?

Jak sam Morris pyta: „Czy maszyny mogą przezwyciężyć ten [problem]? Prawdopodobnie."

Morris kontynuuje: „Być może tak bardzo pragniemy być wysłuchani, aby ktoś naprawdę zwrócił na nas uwagę, bez rozpraszania się, bez patrzenia na telefon, sprawdzania konta, e-maila lub Twittera — może tęsknimy za tym tak bardzo, że przekonać samych siebie, że maszynom naprawdę na nas zależy”.

Wyjaśnienia powodują dalsze zamieszanie

Morris odpowiedział na sprzeciw po niedawnym eksperymencie Koku, starając się stłumić ostrą krytykę, z jaką spotkała się organizacja z niektórych kręgów.

Niestety, wyjaśnienie wydaje się tylko powodować dalsze zamieszanie.

Morris twierdzi teraz, że wszyscy użytkownicy byli świadomi, że odpowiedzi zostały opracowane przy pomocy sztucznej inteligencji i że nikt, kto szukał pomocy, nigdy nie rozmawiał bezpośrednio z sztuczną inteligencją.

„Ta funkcja była opcjonalna” powiedziany Morris, zanim jeszcze raz zamącił wodę, dodając. „Wszyscy wiedzieli o tej funkcji, kiedy była dostępna przez kilka dni”.

Niezależnie od tego, czy użytkownicy wiedzieli o tej funkcji od samego początku, czy nie, skutki eksperymentu dowodzą, że istnieją namacalne pułapki, których należy unikać, stosując technologię sztucznej inteligencji w istniejących usługach.

Znak czasu:

Więcej z MetaWiadomości