ChatGPT: Dingen veiliger maken (Simon Thompson)

ChatGPT: Dingen veiliger maken (Simon Thompson)

ChatGPT: dingen veiliger maken (Simon Thompson) PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

In deel een van deze blog Ik onderzocht de nieuwe en krachtige technologie die ChatGPT is. In dit tweede en laatste deel onderzoek ik welke best practices nodig zijn om het gebruik ervan zo veilig mogelijk te maken.

Het is vrij duidelijk dat we ChatGPT niet terug in de fles gaan stoppen. De technieken die zijn gebruikt om het te maken zijn bekend, en hoewel de hoeveelheid rekenkracht die nodig is nu heroïsch lijkt, zal het in de relatief nabije toekomst veel breder toegankelijk zijn. Zelfs als de computerprijzen in de nabije toekomst niet radicaal dalen, is het soort computer dat nodig is om GPT3.5 te creëren al beschikbaar voor veel overheidsactoren en een breed scala aan niet-statelijke actoren.

Google heeft 'Bard' aangekondigd op basis van zijn LAMDA-technologie, die zo overtuigend is dat een interne ingenieur ervan overtuigd raakte dat het een ziel had en Deepmind heeft een chatbot ontwikkeld met de naam 'Sparrow' waarvan 'sommigen beweren' dat hij technisch superieur is aan ChatGPT.

De grote gevaren komen waarschijnlijk niet van geavanceerde superbedrijven zoals Alphabet. Kleinere bedrijven met een 'snel handelen en dingen kapot maken'-houding zijn waarschijnlijk creatief en avontuurlijk met hun toepassingsideeën. Maar zeer reële schade aan zeer reële mensen is mogelijk met dit soort systemen, en deze kunnen eenvoudig en snel worden geïmplementeerd door kleine niet-deskundige teams.

Vijf toptips om ChatGPT veiliger te maken

Ook al zijn er vele wegen naar 'nee' en slechts één naar 'ja', er zullen nog steeds veel aanvragen als redelijk worden gekwalificeerd. Maar dit zal ze niet veilig maken. Om vertrouwen te hebben in een door ChatGPT aangedreven applicatie, wordt ook voorgesteld om de volgende stappen te implementeren.

  1. Er mag geen misleiding zijn over waar gebruikers mee omgaan. U kunt geen geïnformeerde toestemming geven als u niet geïnformeerd bent. Saleema Amershi et al [1] hebben uitstekende richtlijnen voor interactie voor AI-systemen gepubliceerd. Belangrijk is dat deze structuur bieden voor het overwegen van interactie gedurende de levenscyclus van een gebruikersinteractie. De richtlijnen beschrijven hoe de gebruiker duidelijk kan maken waarmee hij communiceert en hoe hij moet instrueren wat er van hem wordt verwacht. Amershi's begeleiding strekt zich uit over de hele interactie, waarbij storingen en overuren worden beheerd naarmate het systeem 'business as usual' wordt.
  2. Gebruikers moeten de optie hebben om niet met het systeem te communiceren. Een reële optie – bijvoorbeeld een alternatief contactkanaal.
  3. Bij elke aanvraag moet een effectbeoordeling worden gevoegd. Zet het op de website zoals je een robots.txt-bestand zou doen, of zoals je een licentie aan je broncode zou toevoegen. Het Canadese AIA-proces biedt hiervoor een model, maar enkele fundamentele vragen zijn een goed begin. Wie zal het pijn doen als het werkt zoals bedoeld? Wie raakt er gewond als de chatbot fout gaat? Kan iemand zien of de chatbot fout gaat, en kunnen ze het stoppen en de situatie herstellen als dat zo is?
  4. Als uw systeem een ​​nadelig effect zou kunnen hebben op anderen, dan moet er worden gecontroleerd en vastgelegd wat het systeem doet en hoe het zich gedraagt. Deze moeten zo worden onderhouden dat forensisch onderzoek van het gedrag van het systeem mogelijk is, indien nodig.
  5. Als u niet persoonlijk en direct verantwoordelijk bent voor het systeem, moet een duidelijk gedocumenteerd governanceproces worden ontwikkeld en onderhouden. Een deel hiervan zou moeten beschrijven hoe gebruikers om hulp kunnen bellen en hoe ze kunnen klagen over het systeem. Het moet ook beschrijven wat de processen rond het aanpakken van ongemak en klachten van gebruikers zouden moeten zijn.

Potentieel voor grote waarde in veel use-cases

Met de juiste controles en processen zullen nieuwe grote taalmodellen zoals ChatGPT in veel use-cases van grote waarde zijn, zij het met de essentiële controles en controles om ervoor te zorgen dat gebruikers en eindgebruikers worden beschermd tegen misverstanden.

  1. Amershi, Saleema. 'Richtlijnen voor mens-AI-interactie.' CHI-conferentie over menselijke factoren in computersystemen. CHI, 2019. 1–13.

Tijdstempel:

Meer van Fintextra