Deretter AI-designede proteiner for medisin

Deretter AI-designede proteiner for medisin

Next, AI-Designed Proteins for Medicine PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Psykisk helseorganisasjon Koko utnyttet ChatGPT med suksess for å hjelpe dem med å forbedre deres online-støtte, men da brukere fikk vite at en chatbot var medforfatter av svar, forsvant de oppfattede fordelene.

Mottakelsen av eksperimentet på sosiale medier har vært blandet, med noen mennesker fascinert av potensialet til AI i feltet, og andre sterkt motstandere av inntrenging av kunstig intelligens.

Ingen snarveier til mental velvære

Et nylig eksperiment av Koko som supplerte menneskelige svar med ChatGPT først så ut til å tilby betydelige fordeler for brukerne.

Koko er en ideell organisasjon for mental helse som tilbyr støtte og intervensjon til alle som sliter med psykisk velvære, men spesielt ungdom. Som en del av oppdraget deres om å gjøre mental helse tilgjengelig for alle, utvidet selskapet sine frivillige ressurser med kunstig intelligens.

I følge Koko-grunnlegger Rob Morris viste rettssaken seg først vellykket. Morris uttaler at AI-assisterte svar i utgangspunktet ble bedre mottatt og bidro til å redusere ventetidene. Dessverre varte ikke fordelene.

«Når folk fikk vite at meldingene ble skapt sammen av en maskin, fungerte det ikke. Simulert empati føles rart, tomt, sa Morris på Twitter forrige uke. "Maskiner har ikke levende, menneskelig erfaring, så når de sier "det høres vanskelig ut" eller "jeg forstår", høres det uekte ut.

Morris fortsatte til slutt med å konkludere med at chatbots «ikke tar seg tid til å tenke på deg. En chatbot-respons som genereres på 3 sekunder, uansett hvor elegant den er, føles billig på en eller annen måte."

Integrasjonen av ChatGPT into Koko er en del av et langvarig partnerskap som dateres tilbake til juni 2020, med ChatGPT som hjelper menneskelige assistenter til å svare på over 30,000 XNUMX meldinger.

En blandet respons

Ideen om AI-assistert mental helseintervensjon har blitt møtt med utbredt fascinasjon, og en liten, men påtakelig grad av redsel på sosiale medier.

En rekke mennesker tok overhånd med Morris' uttalelse om at en AI "høres uekte ut" når de sympatiserer med mennesker.

Som Twitter-bruker ActuallyStryder påpekt, "Det 'høres' ikke uautentisk ut, det ER uekte. Hele samtalen er en optimalisert mimikk.»

De samme eller lignende følelsene ble delt av mange. Andre uttrykte sjokk eller avsky og stilte spørsmål ved etikken i et slikt eksperiment i utgangspunktet.

Ikke alle var like forferdet. Hyaenamamma sammenlignet autentisiteten gunstig med tilbudet om mental helse under Storbritannias National Health Service (NHS), "Det føltes uekte når jeg kom fra mine NHS mentale helseutøvere også... Jeg vil ta GPT over det når som helst."

Når det gjelder det faktum at chatboter ikke har levd erfaring la hun til, "terapeuter og spesielt psykiatere og psykologer har kanskje ikke levd erfaring heller."

Har lyst på ethvert selskap i det hele tatt

Den umiddelbare responsen på Kokos eksperiment ser ut til å antyde at menneskeheten er ganske klar for kunstig empati, men kan det endre seg over tid?

Som Morris selv spør: "Kan maskiner overvinne dette [problemet]? Sannsynligvis."

Morris fortsetter, "Kanskje vi er så desperate etter å bli hørt, å ha noe faktisk ta hensyn til oss uten å bli distrahert, uten å se på en telefon eller sjekke slack eller e-post eller twitter - kanskje vi lengter så dypt etter det at vi kommer til å overbevise oss selv om at maskinene faktisk bryr seg om oss.»

Avklaringer skaper ytterligere forvirring

Morris har reagert på tilbakeslaget fra Kokus nylige eksperiment, og forsøkt å dempe den sterke kritikken organisasjonen har møtt fra noen hold.

Dessverre ser avklaringen bare ut til å forårsake ytterligere forvirring.

Morris uttaler nå at alle brukere var klar over at svarene ble laget ved hjelp av en kunstig intelligens, og at ingen som søker hjelp noen gang chattet direkte med en AI.

"Denne funksjonen var opt-in," sa Morris før du gjørmete vannet en gang til ved å legge til. "Alle visste om funksjonen da den var live i noen dager."

Enten brukere visste om funksjonen fra starten av eller ikke, viser resultatet fra eksperimentet at det er konkrete fallgruver å unngå når man bruker AI-teknologi i eksisterende tjenester.

Tidstempel:

Mer fra MetaNews