ChatGPT: asjade turvalisemaks muutmine (Simon Thompson)

ChatGPT: asjade turvalisemaks muutmine (Simon Thompson)

ChatGPT: asjade turvalisemaks muutmine (Simon Thompson) PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.

In selle ajaveebi üks osa Uurisin uut ja võimsat tehnoloogiat, milleks on ChatGPT. Selles teises ja viimases osas uurin, milliseid parimaid tavasid on vaja, et muuta selle kasutamine võimalikult ohutuks ja turvaliseks.

On üsna selge, et me ei kavatse ChatGPT-d tagasi pudelisse panna. Selle loomiseks kasutatud tehnikad on hästi teada ja kuigi praegu tundub, et vajaminev arvutusmaht on kangelaslik, on suhteliselt lähitulevikus see palju laiemalt kättesaadav. Isegi kui arvutushinnad lähitulevikus radikaalselt alla ei muutu, on GPT3.5 loomiseks vajalik arvutus juba saadaval paljudele riiklikele osalejatele ja paljudele valitsusvälistele osalejatele.

Google on välja kuulutanud oma LAMDA-tehnoloogial põhineva „Bardi”, mis on nii veenev, et üks sisemine insener veendus, et sellel on hing, ja Deepmind on välja töötanud vestlusroti nimega „Sparrow”, mis „mõned väidavad”, et see on tehniliselt parem kui ChatGPT.

Suured ohud ei tulene tõenäoliselt keerukatest superfirmadest nagu Alphabet. Väiksemad ettevõtted, kes suhtuvad „liigu kiiresti ja lõhuvad asju”, on tõenäoliselt oma rakendusideedes loovad ja seiklushimulised. Kuid sellise süsteemiga on võimalik väga reaalseid inimesi kahjustada ning väikesed mitteeksperdirühmad saavad seda lihtsalt ja kiiresti rakendada.

Viis peamist nõuannet ChatGPT turvalisemaks muutmiseks

Kuigi "ei"-ni on palju teid ja "jah"-ni on ainult üks, leidub siiski palju rakendusi, mis kvalifitseeritakse mõistlikeks. Kuid see ei muuda neid ohutuks. ChatGPT-põhise rakenduse usaldusväärsuse tagamiseks on soovitatav rakendada ka järgmised sammud.

  1. Ei tohiks olla pettusi selles osas, millega kasutajad suhtlevad. Te ei saa anda teadlikku nõusolekut, kui teid ei teavitata. Saleema Amershi jt [1] on avaldanud suurepärased juhised tehisintellektisüsteemide interaktsiooniks. Oluline on see, et need pakuvad struktuuri interaktsiooni arvestamiseks kogu kasutaja suhtluse elutsükli jooksul. Juhised hõlmavad seda, kuidas teha kasutajale selgeks, millega ta suhtleb, ja kuidas juhendada, mida neilt oodatakse. Amershi juhised ulatuvad läbi kogu suhtluse, haldades rikkeid ja ületunde, kuna süsteem muutub "tavapäraseks".
  2. Kasutajatel peaks olema võimalus süsteemiga mitte suhelda. Reaalne võimalus – näiteks alternatiivne kontaktkanal.
  3. Igale taotlusele peaks olema lisatud mõjuhinnang. Pange see veebisaidile nii, nagu lisaksite faili robots.txt või lisaksite oma lähtekoodile litsentsi. Kanada AIA protsess pakub seda tüüpi asja jaoks mudelit, kuid mõned põhiküsimused on hea algus. Kellele see haiget teeb, kui see toimib nii, nagu ette nähtud? Kes saab viga, kui chatbot läheb valesti? Kas keegi oskab öelda, kas vestlusrobot läheb valesti ja kas nad saavad selle peatada ja olukorra parandada, kui see on valesti?
  4. Kui teie süsteem võib teistele negatiivselt mõjuda, tuleks jälgida ja logida, mida süsteem teeb ja kuidas see käitub. Neid tuleks säilitada nii, et vajaduse korral oleks võimalik süsteemi käitumist uurida.
  5. Kui te ei vastuta isiklikult ja otseselt süsteemi eest, tuleks välja töötada ja säilitada selgelt dokumenteeritud juhtimisprotsess. Osa sellest peaks kirjeldama, kuidas kasutajad saavad abi kutsuda ja kuidas nad saavad süsteemi üle kaevata. Samuti peaks see kirjeldama, millised peaksid olema kasutajate probleemide ja kaebustega tegelemise protsessid.

Suure väärtuse potentsiaal paljudel kasutusjuhtudel

Õigete juhtelementide ja protsessidega pakuvad uued suured keelemudelid, nagu ChatGPT, paljudel kasutusjuhtudel suurt väärtust, kuigi olulised juhtelemendid ja kontrollid on paigas, tagamaks, et kasutajad ja lõppkasutajad on kaitstud arusaamatuste eest.

  1. Amershi, Saleema. "Inimese ja tehisintellekti koostoime juhised". CHI konverents inimfaktoritest arvutussüsteemides. CHI, 2019. 1.–13.

Ajatempel:

Veel alates Fintextra