Ensuite, des protéines conçues par l'IA pour la médecine

Ensuite, des protéines conçues par l'IA pour la médecine

Ensuite, les protéines conçues par l'IA pour la médecine PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

L'organisation de santé mentale Koko a réussi à tirer parti de ChatGPT pour les aider à améliorer leur assistance en ligne, mais lorsque les utilisateurs ont appris qu'un chatbot co-créait des réponses, les avantages perçus ont disparu.

L'accueil réservé à l'expérience sur les réseaux sociaux a été mitigé, certains fascinés par le potentiel de l'IA dans le domaine, et d'autres fortement opposés à l'intrusion de l'intelligence artificielle.

Aucun raccourci vers le bien-être mental

Une expérience récente de Koko qui a complété les réponses humaines avec ChatGPT a d'abord semblé offrir des avantages significatifs à ses utilisateurs.

Koko est une organisation de santé mentale à but non lucratif offrant un soutien et une intervention à toute personne aux prises avec un bien-être mental, mais en particulier aux adolescents. Dans le cadre de sa mission de rendre la santé mentale accessible à tous, l'entreprise a augmenté ses ressources bénévoles grâce à l'intelligence artificielle.

Selon le fondateur de Koko, Rob Morris, l'essai s'est d'abord avéré un succès. Morris déclare que les réponses assistées par l'IA ont été initialement mieux reçues et ont contribué à réduire les temps d'attente. Malheureusement, les avantages n'ont pas duré.

« Une fois que les gens ont appris que les messages étaient co-créés par une machine, cela n'a pas fonctionné. L'empathie simulée semble bizarre, vide », a déclaré Morris sur Twitter la semaine dernière. "Les machines n'ont pas vécu l'expérience humaine, alors quand elles disent "ça a l'air dur" ou "je comprends", ça sonne inauthentique."

Morris a finalement conclu que les chatbots « ne prennent pas le temps de penser à vous. Une réponse de chatbot générée en 3 secondes, aussi élégante soit-elle, semble en quelque sorte bon marché.

L'intégration des ChatGPT into Koko fait partie d'un partenariat de longue date datant de juin 2020, avec ChatGPT aidant les assistants humains à répondre à plus de 30,000 XNUMX messages.

Une réponse mitigée

L'idée d'une intervention en santé mentale assistée par l'IA a suscité une fascination généralisée et un degré d'horreur faible mais palpable sur les réseaux sociaux.

Un certain nombre de personnes ont pris ombrage de la déclaration de Morris selon laquelle une IA "semble inauthentique" lorsqu'elle sympathise avec les humains.

En tant qu'utilisateur de Twitter, ActuallyStryder a souligné, "Cela ne "sonne" pas comme inauthentique, c'EST inauthentique. L'intégralité de la conversation est celle d'un mimétisme optimisé.

Les mêmes sentiments ou des sentiments similaires étaient largement partagés par beaucoup. D'autres ont exprimé leur choc ou leur dégoût et ont d'abord remis en question l'éthique d'une telle expérience.

Cependant, tout le monde n'était pas aussi consterné. HyèneMaman a comparé favorablement l'authenticité à la prestation de services de santé mentale dans le cadre du National Health Service (NHS) du Royaume-Uni, "Cela semblait également inauthentique quand je venais de mes praticiens de la santé mentale du NHS… Je prendrai GPT à tout moment."

Quant au fait que les chatbots n'ont pas d'expérience vécue, a-t-elle ajouté, "les thérapeutes et en particulier les psychiatres et les psychologues pourraient ne pas avoir d'expérience vécue non plus".

Envie de n'importe quelle entreprise

La réponse immédiate à l'expérience de Koko semble suggérer que l'humanité est tout à fait prête pour l'empathie artificielle, mais cela pourrait-il changer avec le temps ?

Comme le demande Morris lui-même : « Les machines peuvent-elles résoudre ce [problème] ? Probablement."

Morris poursuit: «Peut-être que nous sommes si désespérés d'être entendus, d'avoir quelque chose qui nous prête réellement attention sans être distraits, sans regarder un téléphone ou vérifier le mou ou les e-mails ou Twitter – peut-être que nous aspirons à cela si profondément, nous allons nous convaincre que les machines se soucient réellement de nous.

Les clarifications aggravent la confusion

Morris a réagi au contrecoup de la récente expérience de Koku, cherchant à étouffer les vives critiques auxquelles l'organisation a été confrontée de la part de certains.

Malheureusement, la clarification ne semble que causer davantage de confusion.

Morris déclare maintenant que tous les utilisateurs savaient que les réponses étaient élaborées à l'aide d'une intelligence artificielle, et que personne cherchant de l'aide n'a jamais discuté directement avec une IA.

"Cette fonctionnalité était opt-in", a affirmé Valérie Plante. Morris avant de brouiller les pistes une fois de plus en ajoutant. "Tout le monde était au courant de la fonctionnalité lorsqu'elle était en ligne depuis quelques jours."

Que les utilisateurs connaissent la fonctionnalité depuis le début ou non, les retombées de l'expérience prouvent qu'il existe des pièges tangibles à éviter lors de l'utilisation de la technologie de l'IA dans les services existants.

Horodatage:

Plus de MétaActualités