Apoi, Proteine ​​proiectate de AI pentru medicină

Apoi, Proteine ​​proiectate de AI pentru medicină

Apoi, Proteine ​​proiectate de AI pentru Inteligența datelor PlatoBlockchain în medicină. Căutare verticală. Ai.

Organizația de sănătate mintală Koko a folosit cu succes ChatGPT pentru a-i ajuta să-și îmbunătățească suportul online, dar atunci când utilizatorii au aflat că un chatbot coautora răspunsuri, beneficiile percepute au dispărut.

Recepția experimentului pe rețelele de socializare a fost mixtă, unele persoane fiind fascinate de potențialul AI în domeniu, iar altele s-au opus puternic intruziunii inteligenței artificiale.

Fără scurtături către bunăstarea mentală

Un experiment recent al lui Koko care a completat răspunsurile umane cu Chat GPT la început părea să ofere beneficii semnificative utilizatorilor săi.

Koko este o organizație non-profit de sănătate mintală care oferă sprijin și intervenție oricărei persoane care se luptă cu sănătatea mintală, dar în special adolescenților. Ca parte a misiunii lor de a face sănătatea mintală accesibilă oricui, compania și-a mărit resursele de voluntari cu inteligență artificială.

Potrivit fondatorului Koko, Rob Morris, procesul sa dovedit inițial un succes. Morris afirmă că răspunsurile asistate de AI au fost inițial mai bine primite și au ajutat la reducerea timpilor de așteptare. Din păcate, beneficiile nu au durat.

„Odată ce oamenii au aflat că mesajele au fost co-create de o mașină, nu a funcționat. Empatia simulată se simte ciudată, goală”, a spus Morris pe Twitter săptămâna trecută. „Mașinile nu au experiență umană trăită, așa că atunci când spun „sună greu” sau „înțeleg”, sună neautentic.”

Morris a concluzionat în cele din urmă că chatboții „nu își iau timp din ziua lor să se gândească la tine. Un răspuns de chatbot care este generat în 3 secunde, indiferent cât de elegant, se simte cumva ieftin.”

Integrarea Chat GPT into Koko face parte dintr-un parteneriat de lungă durată care datează din iunie 2020, ChatGPT asistând asistenții umani să răspundă la peste 30,000 de mesaje.

Un răspuns mixt

Ideea unei intervenții de sănătate mintală asistată de inteligență artificială a fost întâmpinată cu fascinație larg răspândită și cu un grad mic, dar palpabil de groază pe rețelele de socializare.

Un număr de oameni au fost umbriți de declarația lui Morris că o inteligență artificială „suna neautentic” atunci când simpatizează cu oamenii.

Ca utilizator Twitter ActuallyStryder a subliniat, „Nu „suna” neautentic, ESTE neautentic. Întreaga conversație este una de mimetizare optimizată.”

Aceleași sentimente sau similare au fost împărtășite pe scară largă de mulți. Alții și-au exprimat șoc sau dezgust și au pus sub semnul întrebării etica unui astfel de experiment în primul rând.

Totuși, nu toată lumea a fost atât de îngrozită. HyaenaMama a comparat în mod favorabil autenticitatea cu furnizarea de sănătate mintală din cadrul Serviciului Național de Sănătate (NHS) al Regatului Unit), „S-a simțit neautentic și atunci când am venit de la practicienii mei de sănătate mintală din NHS... Voi prelua GPT-ul oricând.”

În ceea ce privește faptul că chatbot-ii nu au experiență trăită, ea a adăugat, „terapeuții și în special psihiatrii și psihologii ar putea să nu aibă experiență trăită nici”.

Pofta de orice companie

Răspunsul imediat la experimentul lui Koko pare să sugereze că omenirea este destul de pregătită pentru empatie artificială, dar s-ar putea schimba asta în timp?

Așa cum însuși Morris întreabă: „Pot mașinile să depășească această [problema]? Probabil."

Morris continuă: „Poate că suntem atât de disperați să fim auziți, să avem ceva să ne acorde atenție fără a fi distras, fără să ne uităm la un telefon sau să verificăm slack sau e-mail sau twitter - poate că tânjim atât de mult după asta, că vom să ne convingem că mașinilor chiar le pasă de noi.”

Clarificările provoacă o confuzie suplimentară

Morris a răspuns reacției din experimentul recent al lui Koku, încercând să înăbușe criticile puternice cu care se confruntă organizația din anumite părți.

Din păcate, clarificarea pare să provoace confuzii suplimentare.

Morris afirmă acum că toți utilizatorii erau conștienți de faptul că răspunsurile au fost create cu ajutorul unei inteligențe artificiale și că nimeni care caută ajutor nu a vorbit vreodată direct cu un AI.

„Această funcție a fost înscrisă,” a spus Morris înainte de a înnoroi apele încă o dată, adăugând. „Toată lumea știa despre funcție când a fost live timp de câteva zile.”

Indiferent dacă utilizatorii au știut despre această funcție de la început sau nu, consecințele experimentului demonstrează că există capcane tangibile de evitat atunci când se utilizează tehnologia AI în serviciile existente.

Timestamp-ul:

Mai mult de la MetaNews