Dernæst AI-designede proteiner til medicin

Dernæst AI-designede proteiner til medicin

Next, AI-Designed Proteins for Medicine PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Den mentale sundhedsorganisation Koko udnyttede med succes ChatGPT til at hjælpe dem med at forbedre deres onlinesupport, men da brugerne fandt ud af, at en chatbot var medforfatter af svar, forsvandt de opfattede fordele.

Modtagelsen af ​​eksperimentet på sociale medier har været blandet, hvor nogle mennesker er fascineret af potentialet i AI på området, og andre er stærkt imod indtrængen af ​​kunstig intelligens.

Ingen genveje til mentalt velvære

Et nyligt eksperiment af Koko, som supplerede menneskelige reaktioner med ChatGPT i første omgang så ud til at tilbyde betydelige fordele for sine brugere.

Koko er en non-profit organisation for mental sundhed, der tilbyder støtte og intervention til alle, der kæmper med psykisk velvære, men især unge. Som en del af deres mission om at gøre mental sundhed tilgængelig for alle, udvidede virksomheden sine frivillige ressourcer med kunstig intelligens.

Ifølge Koko-grundlæggeren Rob Morris viste retssagen sig i første omgang at være vellykket. Morris udtaler, at AI-støttede svar oprindeligt blev bedre modtaget og hjalp med at reducere ventetider. Desværre holdt fordelene ikke ved.

“Når folk først fandt ud af, at beskederne blev skabt af en maskine, virkede det ikke. Simuleret empati føles mærkelig, tom,” sagde Morris på Twitter sidste uge. "Maskiner har ikke en levende, menneskelig erfaring, så når de siger "det lyder hårdt" eller "jeg forstår", lyder det uægte."

Morris fortsatte til sidst med at konkludere, at chatbots "ikke tager tid til at tænke på dig. Et chatbot-svar, der genereres på 3 sekunder, uanset hvor elegant det er, føles billigt på en eller anden måde."

Integrationen af ChatGPT into Koko er en del af et mangeårigt partnerskab, der går tilbage til juni 2020, hvor ChatGPT hjælper menneskelige assistenter med at besvare over 30,000 beskeder.

En blandet reaktion

Ideen om AI-assisteret mental sundhedsintervention er blevet mødt med udbredt fascination og en lille, men håndgribelig grad af rædsel på sociale medier.

En række mennesker var urolige over Morris' udtalelse om, at en AI "lyder uægte", når de sympatiserer med mennesker.

Som Twitter-bruger ActuallyStryder påpegede, “Det 'lyder' ikke uægte, det ER uægte. Hele samtalen er en af ​​optimeret mimik."

De samme eller lignende følelser blev bredt delt af mange. Andre udtrykte chok eller afsky og satte spørgsmålstegn ved etikken i et sådant eksperiment i første omgang.

Ikke alle var dog helt så rystede. Hyænemor sammenlignede ægtheden positivt med mentale sundhedsydelser under UK's National Health Service (NHS), "Det føltes uægte, når jeg også kom fra mine NHS-psykiatriske praktiserende læger... Jeg vil tage GPT over det når som helst."

Med hensyn til det faktum, at chatbots ikke har levet erfaring tilføjede hun, "behandlere og især psykiatere og psykologer har måske heller ikke levet erfaring."

Trang til enhver virksomhed overhovedet

Den umiddelbare reaktion på Kokos eksperiment synes at antyde, at menneskeheden er ret klar til kunstig empati, men kunne det ændre sig over tid?

Som Morris selv spørger: "Kan maskiner overvinde dette [problem]? Sandsynligvis."

Morris fortsætter: "Måske er vi så desperate efter at blive hørt, efter at have noget, der rent faktisk er opmærksomme på os uden at blive distraheret, uden at kigge på en telefon eller tjekke slack eller e-mail eller twitter - måske længes vi så dybt efter det, vi vil overbevise os selv om, at maskinerne faktisk bekymrer sig om os."

Afklaringer forårsager yderligere forvirring

Morris har reageret på tilbageslaget fra Kokus seneste eksperiment og forsøgt at dæmpe den stærke kritik, som organisationen har været udsat for fra nogle sider.

Desværre ser præciseringen kun ud til at skabe yderligere forvirring.

Morris oplyser nu, at alle brugere var klar over, at svarene blev lavet ved hjælp af en kunstig intelligens, og at ingen, der søgte hjælp, nogensinde chattede direkte med en AI.

"Denne funktion var tilvalgt," sagde Morris, før du mudder vandet endnu en gang ved at tilføje. "Alle kendte til funktionen, da den var live i et par dage."

Uanset om brugerne kendte til funktionen fra starten eller ej, beviser resultatet fra eksperimentet, at der er håndgribelige faldgruber, man skal undgå, når man anvender AI-teknologi i eksisterende tjenester.

Tidsstempel:

Mere fra MetaNews