ChatGPT : Rendre les choses plus sûres (Simon Thompson)

ChatGPT : Rendre les choses plus sûres (Simon Thompson)

ChatGPT : Rendre les choses plus sûres (Simon Thompson) PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

In première partie de ce blog J'ai examiné la nouvelle et puissante technologie qu'est ChatGPT. Dans cette deuxième et dernière partie, j'explore les meilleures pratiques nécessaires pour rendre son utilisation aussi sûre et sécurisée que possible.

Il est assez clair que nous n'allons pas remettre ChatGPT dans la bouteille. Les techniques utilisées pour le créer sont bien connues, et bien que la quantité de calcul requise semble être héroïque maintenant, dans un avenir relativement proche, elle sera beaucoup plus largement accessible. Même si les prix du calcul ne baissent pas radicalement dans un avenir proche, le type de calcul requis pour créer GPT3.5 est déjà disponible pour de nombreux acteurs étatiques et un large éventail d'acteurs non étatiques.

Google a annoncé 'Bard' basé sur sa technologie LAMDA qui est si convaincante qu'un ingénieur interne est devenu convaincu qu'il avait une âme et Deepmind a développé un chatbot appelé 'Sparrow' qui est 'réclamé par certains' comme étant techniquement supérieur à ChatGPT.

Les grands dangers ne proviendront probablement pas de super entreprises sophistiquées comme Alphabet. Les petites entreprises avec une attitude « aller vite et casser les choses » sont susceptibles d'être créatives et aventureuses avec leurs idées d'application. Mais des préjudices très réels à des personnes très réelles sont possibles avec ce type de système, et ceux-ci peuvent être facilement et rapidement mis en œuvre par de petites équipes non expertes.

Cinq conseils pour rendre ChatGPT plus sûr

Même s'il existe de nombreux chemins vers le « non » et un seul vers le « oui », il y aura toujours beaucoup d'applications qui seront qualifiées de raisonnables. Mais cela ne les rendra pas sûrs. Afin d'avoir confiance dans une application alimentée par ChatGPT, il est également suggéré que les étapes suivantes soient implémentées.

  1. Il ne devrait y avoir aucune tromperie sur ce avec quoi les utilisateurs interagissent. Vous ne pouvez pas donner un consentement éclairé si vous n'êtes pas informé. Saleema Amershi et al [1] ont publié d'excellentes lignes directrices pour l'interaction des systèmes d'IA. Il est important de noter qu'ils fournissent une structure pour prendre en compte l'interaction tout au long du cycle de vie d'une interaction utilisateur. Les directives expliquent comment expliquer clairement à l'utilisateur avec quoi il interagit et comment lui expliquer ce que l'on attend de lui. Les conseils d'Amershi s'étendent tout au long de l'interaction, gérant les échecs et les heures supplémentaires à mesure que le système devient « comme d'habitude ».
  2. Les utilisateurs doivent avoir la possibilité de ne pas interagir avec le système. Une véritable option – par exemple un canal de contact alternatif.
  3. Une évaluation d'impact devrait être jointe à chaque demande. Placez-le sur le site Web comme vous le feriez pour un fichier robots.txt ou comme vous ajouteriez une licence à votre code source. Le processus canadien de l'AIA offre un modèle pour ce genre de chose, mais certaines questions fondamentales sont un bon début. À qui cela fera-t-il du mal si cela fonctionne comme prévu ? Qui sera blessé si le chatbot tourne mal ? Quelqu'un peut-il dire si le chatbot va mal, et peut-il l'arrêter et réparer la situation si c'est le cas ?
  4. Si votre système peut avoir un effet négatif sur les autres, il doit y avoir une surveillance et une journalisation de ce que fait le système et de son comportement. Ceux-ci doivent être maintenus de manière à permettre une enquête médico-légale sur le comportement du système, si nécessaire.
  5. Si vous n'êtes pas personnellement et directement responsable du système, un processus de gouvernance clairement documenté doit être développé et maintenu. Une partie de cela devrait décrire comment les utilisateurs peuvent appeler à l'aide et comment ils peuvent se plaindre du système. Il doit également décrire ce que devraient être les processus de traitement de la détresse et des plaintes des utilisateurs.

Potentiel de grande valeur dans de nombreux cas d'utilisation

Avec les contrôles et les processus appropriés, de nouveaux grands modèles de langage tels que ChatGPT apporteront une grande valeur dans de nombreux cas d'utilisation, bien qu'avec les contrôles et vérifications essentiels en place, pour garantir que les utilisateurs et les utilisateurs finaux sont protégés de tout malentendu.

  1. Amershi, Saleema. «Lignes directrices pour l'interaction homme-IA». Conférence CHI sur les facteurs humains dans les systèmes informatiques. CHI, 2019. 1–13.

Horodatage:

Plus de Fintextra