ChatGPT: Gør tingene sikrere (Simon Thompson)

ChatGPT: Gør tingene sikrere (Simon Thompson)

ChatGPT: Making things safer (Simon Thompson) PlatoBlockchain Data Intelligence. Vertical Search. Ai.

In del et af denne blog Jeg undersøgte den nye og kraftfulde teknologi, ChatGPT. I denne anden og sidste del undersøger jeg, hvilken bedste praksis der kræves for at gøre brugen så sikker og sikker som muligt.

Det er ret klart, at vi ikke kommer til at lægge ChatGPT tilbage i flasken. Teknikkerne, der bruges til at skabe det, er velkendte, og selvom mængden af ​​krævet beregning ser ud til at være heroisk nu, vil den i en relativt nær fremtid være meget mere tilgængelig. Selvom beregningspriserne ikke ændrer sig radikalt i den nærmeste fremtid, er den form for beregning, der kræves for at skabe GPT3.5, allerede tilgængelig for mange statslige aktører og en bred vifte af ikke-statslige aktører.

Google har annonceret 'Bard' baseret på sin LAMDA-teknologi, som er så overbevisende, at en intern ingeniør blev overbevist om, at den havde en sjæl, og Deepmind har udviklet en chatbot kaldet 'Sparrow', som 'af nogle hævdes' at være teknisk overlegen i forhold til ChatGPT.

De store farer kommer sandsynligvis ikke fra sofistikerede supervirksomheder som Alphabet. Mindre virksomheder med en 'bevæg dig hurtigt og bryd tingene'-attitude vil sandsynligvis være kreative og eventyrlystne med deres applikationsideer. Men meget reelle skader på meget rigtige mennesker er mulige med denne form for system, og disse kan nemt og hurtigt implementeres af små ikke-eksperthold.

Fem bedste tips til at gøre ChatGPT sikrere

Selvom der er mange veje til 'nej' og kun én til 'ja', vil der stadig være mange ansøgninger, der bliver kvalificeret som rimelige. Men dette vil ikke gøre dem sikre. For at have tillid til en ChatGPT-drevet applikation, foreslås det også, at følgende trin implementeres.

  1. Der bør ikke snydes om, hvad det er, brugerne interagerer med. Du kan ikke give informeret samtykke, hvis du ikke er informeret. Saleema Amershi et al [1] har udgivet fremragende retningslinjer for interaktion for AI-systemer. Det er vigtigt, at disse giver struktur til at overveje interaktion gennem hele livscyklussen af ​​en brugerinteraktion. Retningslinjerne dækker, hvordan man gør det klart for brugeren, hvad de interagerer med, og hvordan man instruerer dem om, hvad der forventes af dem. Amershis vejledning strækker sig gennem hele interaktionen, håndtering af fejl og overarbejde, efterhånden som systemet bliver 'business as usual'.
  2. Brugere skal have mulighed for ikke at interagere med systemet. En reel mulighed – for eksempel en alternativ kontaktkanal.
  3. Der bør vedlægges en konsekvensanalyse til hver ansøgning. Læg den på webstedet, som du ville gøre en robots.txt-fil, eller som du ville tilføje en licens til din kildekode. Den canadiske AIA-proces tilbyder en model for denne slags ting, men nogle grundlæggende spørgsmål er en god start. Hvem vil det skade, hvis det virker efter hensigten? Hvem kommer til skade, hvis chatbotten går galt? Kan nogen fortælle, om chatbotten går galt, og kan de stoppe den og reparere situationen, hvis den er det?
  4. Hvis dit system kunne have en negativ effekt på andre, så bør der være overvågning og logning af, hvad systemet gør, og hvordan det opfører sig. Disse bør vedligeholdes på en sådan måde, at de om nødvendigt muliggør retsmedicinsk undersøgelse af systemets adfærd.
  5. Hvis du ikke er personligt og direkte ansvarlig for systemet, bør en klart dokumenteret styringsproces udvikles og vedligeholdes. En del af dette skal beskrive, hvordan brugere kan ringe efter hjælp, og hvordan de kan klage over systemet. Den skal også beskrive, hvad processerne omkring håndtering af brugernes nød og klager skal være.

Potentiale for stor værdi i mange use-cases

Med de korrekte kontroller og processer vil nye store sprogmodeller såsom ChatGPT give stor værdi i mange use-cases, omend med de væsentlige kontroller og kontroller på plads, for at sikre at brugere og slutbrugere er beskyttet mod enhver misforståelse.

  1. Amershi, Saleema. 'Retningslinjer for menneske-AI-interaktion.' CHI-konference om menneskelige faktorer i computersystemer. CHI, 2019. 1-13.

Tidsstempel:

Mere fra Fintextra