ChatGPT: Gjør ting tryggere (Simon Thompson)

ChatGPT: Gjør ting tryggere (Simon Thompson)

ChatGPT: Gjør ting sikrere (Simon Thompson) PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

In del én av denne bloggen Jeg undersøkte den nye og kraftige teknologien som er ChatGPT. I denne andre og siste delen utforsker jeg hvilke beste praksiser som kreves for å gjøre bruken så trygg og sikker som mulig.

Det er ganske klart at vi ikke kommer til å legge ChatGPT tilbake i flasken. Teknikkene som brukes for å lage den er velkjente, og selv om mengden med beregning som kreves ser ut til å være heroisk nå, vil den i relativt nær fremtid være mye mer tilgjengelig. Selv om beregningsprisene ikke endres radikalt i nær fremtid, er den typen beregning som kreves for å lage GPT3.5 allerede tilgjengelig for mange statlige aktører, og et bredt spekter av ikke-statlige aktører.

Google har annonsert 'Bard' basert på LAMDA-teknologien som er så overbevisende at en intern ingeniør ble overbevist om at den hadde en sjel, og Deepmind har utviklet en chatbot kalt 'Sparrow' som er 'hevdet av noen' å være teknisk overlegen ChatGPT.

De store farene kommer sannsynligvis ikke fra sofistikerte superselskaper som Alphabet. Mindre bedrifter med en holdning til å "flytte raskt og bryte ting" er sannsynligvis kreative og eventyrlystne med sine applikasjonsideer. Men veldig reell skade på veldig ekte mennesker er mulig med denne typen system, og disse kan enkelt og raskt implementeres av små ikke-ekspertteam.

Fem beste tips for å gjøre ChatGPT tryggere

Selv om det er mange veier til "nei" og bare én til "ja", vil det fortsatt være mange søknader som blir kvalifisert som rimelige. Men dette vil ikke gjøre dem trygge. For å ha tillit til en ChatGPT-drevet applikasjon, foreslås det også at følgende trinn implementeres.

  1. Det skal ikke være noe bedrag om hva det er brukerne samhandler med. Du kan ikke gi informert samtykke hvis du ikke er informert. Saleema Amershi et al [1] har publisert utmerkede retningslinjer for interaksjon for AI-systemer. Viktigere er at disse gir struktur for å vurdere interaksjon gjennom hele livssyklusen til en brukerinteraksjon. Retningslinjene dekker hvordan man gjør det klart for brukeren hva de samhandler med og hvordan man instruerer dem om hva som forventes av dem. Amershis veiledning strekker seg gjennom interaksjonen, og håndterer feil og overtid ettersom systemet blir "business as usual".
  2. Brukere bør ha muligheten til å ikke samhandle med systemet. Et reelt alternativ – for eksempel en alternativ kontaktkanal.
  3. Det bør legges ved en konsekvensutredning til hver søknad. Plasser den på nettstedet som du ville gjort en robots.txt-fil, eller som du ville lagt til en lisens til kildekoden din. Den kanadiske AIA-prosessen tilbyr en modell for denne typen ting, men noen grunnleggende spørsmål er en god start. Hvem vil det skade hvis det fungerer etter hensikten? Hvem vil bli skadet hvis chatboten går galt? Kan noen fortelle om chatboten går galt, og kan de stoppe den og reparere situasjonen hvis den er det?
  4. Hvis systemet ditt kan ha en negativ effekt på andre, bør det være overvåking og logging av hva systemet gjør og hvordan det oppfører seg. Disse bør vedlikeholdes på en slik måte at de tillater rettsmedisinske undersøkelser av systemets oppførsel, om nødvendig.
  5. Hvis du ikke er personlig og direkte ansvarlig for systemet, bør en klart dokumentert styringsprosess utvikles og vedlikeholdes. En del av dette skal beskrive hvordan brukere kan ringe etter hjelp, og hvordan de kan klage på systemet. Den bør også beskrive hvordan prosessene rundt håndtering av brukerproblemer og klager bør være.

Potensial for stor verdi i mange brukstilfeller

Med de riktige kontrollene og prosessene vil nye store språkmodeller som ChatGPT gi stor verdi i mange brukstilfeller, om enn med de essensielle kontrollene og sjekkene på plass, for å sikre at brukere og sluttbrukere er beskyttet mot enhver misforståelse.

  1. Amershi, Saleema. 'Retningslinjer for menneskelig-AI-interaksjon.' CHI-konferanse om menneskelige faktorer i datasystemer. CHI, 2019. 1–13.

Tidstempel:

Mer fra Fintextra