Vervolgens AI-ontworpen eiwitten voor medicijnen

Vervolgens AI-ontworpen eiwitten voor medicijnen

Vervolgens AI-ontworpen eiwitten voor de geneeskunde PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Geestelijke gezondheidsorganisatie Koko maakte met succes gebruik van ChatGPT om hen te helpen hun online ondersteuning te verbeteren, maar toen gebruikers hoorden dat een chatbot co-auteur was van de antwoorden, verdwenen de waargenomen voordelen.

De ontvangst van het experiment op sociale media is gemengd: sommige mensen zijn gefascineerd door het potentieel van AI in het veld en andere zijn sterk gekant tegen het binnendringen van kunstmatige intelligentie.

Geen snelkoppelingen naar mentaal welzijn

Een recent experiment van Koko dat menselijke reacties aanvulde met ChatGPT leek aanvankelijk aanzienlijke voordelen te bieden aan de gebruikers.

Koko is een non-profit organisatie voor geestelijke gezondheid die ondersteuning en interventie biedt aan iedereen die worstelt met mentaal welzijn, maar met name adolescenten. Als onderdeel van hun missie om geestelijke gezondheid voor iedereen toegankelijk te maken, heeft het bedrijf zijn vrijwilligersbronnen uitgebreid met kunstmatige intelligentie.

Volgens Koko-oprichter Rob Morris was de proef aanvankelijk succesvol. Morris stelt dat door AI ondersteunde reacties aanvankelijk beter werden ontvangen en hielpen om wachttijden te verkorten. Helaas bleven de voordelen niet duren.

โ€œToen mensen eenmaal hoorden dat de berichten door een machine waren gemaakt, werkte het niet meer. Gesimuleerde empathie voelt raar, leeg', zei Morris op Twitter vorige week. "Machines hebben geen geleefde, menselijke ervaring, dus als ze zeggen "dat klinkt moeilijk" of "ik begrijp het", klinkt het niet authentiek."

Morris kwam uiteindelijk tot de conclusie dat chatbots โ€œgeen tijd vrijmaken om aan je te denken. Een reactie van een chatbot die in 3 seconden wordt gegenereerd, hoe elegant ook, voelt op de een of andere manier goedkoop aan.โ€

De integratie van ChatGPT into Koko maakt deel uit van een langdurige samenwerking die teruggaat tot juni 2020, waarbij ChatGPT menselijke assistenten assisteerde bij het beantwoorden van meer dan 30,000 berichten.

Een gemengde reactie

Het idee van door AI ondersteunde interventies in de geestelijke gezondheidszorg stuitte op wijdverbreide fascinatie en een kleine, maar tastbare mate van afschuw op sociale media.

Een aantal mensen nam aanstoot aan de uitspraak van Morris dat een AI "onauthentiek klinkt" als hij sympathiseert met mensen.

Zoals Twitter-gebruiker ActuallyStryder wees erop, โ€œHet 'klinkt' niet onauthentiek, het IS onauthentiek. Het hele gesprek is er een van geoptimaliseerde mimiek.

Dezelfde of vergelijkbare gevoelens werden door velen breed gedeeld. Anderen uitten hun shock of walging en trokken in de eerste plaats de ethiek van een dergelijk experiment in twijfel.

Niet iedereen was echter zo geschokt. Hyaena Mam vergeleek de authenticiteit gunstig met de voorziening voor geestelijke gezondheidszorg onder de Britse National Health Service (NHS): "Het voelde ook niet authentiek als het afkomstig was van mijn NHS-beoefenaars in de geestelijke gezondheidszorg... Ik zal GPT dat op elk moment overnemen."

Wat betreft het feit dat chatbots geen geleefde ervaring hebben, voegde ze eraan toe: "therapeuten en vooral psychiaters en psychologen hebben misschien ook geen geleefde ervaring."

Verlangen naar welk bedrijf dan ook

De onmiddellijke reactie op Koko's experiment lijkt te suggereren dat de mensheid helemaal klaar is voor kunstmatige empathie, maar zou dat in de loop van de tijd kunnen veranderen?

Zoals Morris zelf vraagt: โ€œKunnen machines dit [probleem] oplossen? Waarschijnlijk."

Morris vervolgt: 'Misschien willen we zo wanhopig zijn om gehoord te worden, dat iets echt aandacht aan ons besteedt zonder afgeleid te worden, zonder naar een telefoon te kijken of speling of e-mail of twitter te checken - misschien verlangen we daar zo diep naar dat we onszelf ervan overtuigen dat de machines echt om ons geven.โ€

Verduidelijkingen zorgen voor verdere verwarring

Morris heeft gereageerd op de terugslag van Koku's recente experiment en probeerde de sterke kritiek die de organisatie van sommige kanten kreeg te onderdrukken.

Helaas lijkt de verduidelijking alleen maar voor verdere verwarring te zorgen.

Morris stelt nu dat alle gebruikers wisten dat de antwoorden waren opgesteld met behulp van kunstmatige intelligentie en dat niemand die hulp zocht ooit rechtstreeks met een AI heeft gechat.

"Deze functie was opt-in," zei Morris voordat hij de wateren opnieuw vertroebelt door toe te voegen. "Iedereen kende de functie toen deze een paar dagen live was."

Of gebruikers vanaf het begin van de functie op de hoogte waren of niet, de gevolgen van het experiment bewijzen dat er tastbare valkuilen zijn die moeten worden vermeden bij het gebruik van AI-technologie in bestaande services.

Tijdstempel:

Meer van MetaNieuws