ChatGPT: Teemme asioista turvallisempia (Simon Thompson)

ChatGPT: Teemme asioista turvallisempia (Simon Thompson)

ChatGPT: Turvallisuuden parantaminen (Simon Thompson) PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

In osa tätä blogia Tutkin uutta ja tehokasta tekniikkaa, joka on ChatGPT. Tässä toisessa ja viimeisessä osassa tutkin, mitä parhaita käytäntöjä tarvitaan, jotta sen käyttö olisi mahdollisimman turvallista.

On melko selvää, että emme aio laittaa ChatGPT:tä takaisin pulloon. Sen luomiseen käytetyt tekniikat tunnetaan hyvin, ja vaikka tarvittava laskentamäärä näyttää nyt sankarilliselta, suhteellisen lähitulevaisuudessa se on paljon laajemmin saatavilla. Vaikka laskentahinnat eivät lähitulevaisuudessa muuttuisi radikaalisti alaspäin, GPT3.5:n luomiseen vaadittava laskenta on jo monen valtion toimijan ja laajan joukon ei-valtiollisia toimijoita saatavilla.

Google on ilmoittanut LAMDA-teknologiaansa perustuvan "Bardin", joka on niin vakuuttava, että yksi sisäinen insinööri vakuuttui, että sillä on sielu, ja Deepmind on kehittänyt "Sparrow"-nimisen chatbotin, jonka "jotkut väittävät" olevan teknisesti parempi kuin ChatGPT.

Suuret vaarat eivät todennäköisesti tule Alphabetin kaltaisista kehittyneistä superyrityksistä. Pienemmät yritykset, joilla on "siirry nopeasti ja riko asioita" -asenne, ovat todennäköisesti luovia ja seikkailunhaluisia sovellusideoidensa kanssa. Mutta erittäin todellisia haittoja todella todellisille ihmisille on mahdollista tällaisella järjestelmällä, ja ne voidaan helposti ja nopeasti toteuttaa pienet ei-asiantuntijatiimit.

Viisi parasta vinkkiä ChatGPT:n turvallisuuden parantamiseksi

Vaikka on monia polkuja "ei" ja vain yksi "kyllä", on silti paljon hakemuksia, jotka luokitellaan kohtuullisiksi. Mutta tämä ei tee niistä turvallisia. Jotta voit luottaa ChatGPT-pohjaiseen sovellukseen, on myös ehdotettu, että seuraavat vaiheet toteutetaan.

  1. Käyttäjien vuorovaikutuksessa ei pitäisi olla huijausta. Et voi antaa tietoista suostumusta, jos sinulle ei ole ilmoitettu. Saleema Amershi et al [1] ovat julkaisseet erinomaiset ohjeet tekoälyjärjestelmien vuorovaikutukseen. Tärkeää on, että ne tarjoavat rakenteen vuorovaikutuksen harkitsemiseksi koko käyttäjän vuorovaikutuksen elinkaaren ajan. Ohjeet kattavat kuinka tehdä käyttäjälle selväksi, minkä kanssa hän on vuorovaikutuksessa, ja kuinka neuvoa häntä siitä, mitä heiltä odotetaan. Amershin opastus ulottuu koko vuorovaikutuksen ajan, vikojen ja ylitöiden hallintaan, kun järjestelmästä tulee "business as usual".
  2. Käyttäjillä tulee olla mahdollisuus olla vuorovaikutuksessa järjestelmän kanssa. Todellinen vaihtoehto – esimerkiksi vaihtoehtoinen yhteydenottokanava.
  3. Jokaiseen hakemukseen olisi liitettävä vaikutustenarviointi. Laita se verkkosivustolle kuten robots.txt-tiedosto tai lisäisit lisenssin lähdekoodiisi. Kanadalainen AIA-prosessi tarjoaa mallin tällaiselle, mutta jotkut peruskysymykset ovat hyvä alku. Ketä se haittaa, jos se toimii tarkoitetulla tavalla? Kuka loukkaantuu, jos chatbot menee pieleen? Voiko kukaan kertoa, onko chatbotissa vika, ja voiko he pysäyttää sen ja korjata tilanteen, jos se on?
  4. Jos järjestelmälläsi voi olla haitallisia vaikutuksia muihin, järjestelmän toimintaa ja käyttäytymistä tulisi seurata ja kirjata. Näitä tulee säilyttää siten, että järjestelmän käyttäytymistä voidaan tarvittaessa tutkia rikosteknisesti.
  5. Jos et ole henkilökohtaisesti ja suoraan vastuussa järjestelmästä, selkeästi dokumentoitu hallintoprosessi tulee kehittää ja ylläpitää. Osassa tästä tulee kuvata, kuinka käyttäjät voivat pyytää apua ja kuinka he voivat valittaa järjestelmästä. Siinä tulee myös kuvata, millaisia ​​prosesseja käyttäjien hädän ja valitusten käsittelemiseksi tulisi olla.

Mahdollisuus suureen arvoon monissa käyttötapauksissa

Oikeilla ohjauksilla ja prosesseilla uudet suuret kielimallit, kuten ChatGPT, tarjoavat suuren arvon monissa käyttötapauksissa, vaikkakin olennaiset hallintalaitteet ja tarkistukset ovat paikallaan, jotta käyttäjät ja loppukäyttäjät suojataan väärinkäsityksiltä.

  1. Amershi, Saleema. "Ihmisen ja tekoälyn vuorovaikutusohjeet." CHI-konferenssi inhimillisistä tekijöistä laskentajärjestelmissä. CHI, 2019. 1–13.

Aikaleima:

Lisää aiheesta Fintextra