Kuidas peaksid AI-süsteemid käituma ja kes peaks otsustama?

Kuidas peaksid AI-süsteemid käituma ja kes peaks otsustama?

Kuidas peaksid AI-süsteemid käituma ja kes peaks otsustama? PlatoBlockchaini andmete luure. Vertikaalne otsing. Ai.

Oma missiooni täites oleme pühendunud tagama, et juurdepääs tehisintellektile ja AGI-le, sellest saadav kasu ja mõju nende üle on laialt levinud. Usume, et nende eesmärkide saavutamiseks AI-süsteemi käitumise kontekstis on vaja vähemalt kolme ehitusplokki.[^ulatus]

1. Parandage vaikekäitumist. Soovime, et võimalikult paljud kasutajad leiaksid, et meie tehisintellektisüsteemid on neile kasulikud, ja tunneksid, et meie tehnoloogia mõistab ja austab nende väärtusi.

Selle eesmärgi saavutamiseks investeerime teadusuuringutesse ja inseneritöösse, et vähendada nii silmatorkavaid kui ka peeneid eelarvamusi selles, kuidas ChatGPT reageerib erinevatele sisenditele. Mõnel juhul keeldub ChatGPT praegu väljunditest, mida ta ei peaks, ja mõnel juhul ei keeldu see siis, kui peaks. Usume, et paranemine on mõlemas aspektis võimalik.

Lisaks on meil arenguruumi süsteemi käitumise muudes dimensioonides, näiteks süsteemi "asjade väljamõtlemises". Kasutajate tagasiside on nende täiustuste tegemiseks hindamatu.

2. Määratlege oma tehisintellekti väärtused laias piirides. Usume, et tehisintellekt peaks olema üksikute inimeste jaoks kasulik tööriist ja seega iga kasutaja poolt kohandatav ühiskonna määratud piirini. Seetõttu töötame välja ChatGPT versiooniuuenduse, et kasutajad saaksid selle käitumist hõlpsalt kohandada.

See tähendab süsteemi väljundite lubamist, millega teised inimesed (kaasa arvatud meie ise) ei pruugi nõustuda. Õige tasakaalu leidmine on siin keeruline – kohandamise äärmuseni viimine võib lubada pahatahtlik kasutamine meie tehnoloogia ja sükofantne AI, mis võimendavad meeletult inimeste olemasolevaid uskumusi.

Seetõttu on süsteemi käitumisel alati teatud piirid. Väljakutse seisneb nende piiride määratlemises. Kui proovime teha kõik need otsused ise või kui püüame välja töötada ühtse monoliitse tehisintellektisüsteemi, ei suuda me oma hartas võetud kohustust „vältida liigset võimu koondumist”.

3. Avalik sisend vaikeväärtuste ja rangete piiride kohta. Üks võimalus liigset võimu koondumist vältida on anda inimestele, kes kasutavad selliseid süsteeme nagu ChatGPT või keda need mõjutavad, nende süsteemide reegleid mõjutada.

Usume, et paljud otsused meie vaikeväärtuste ja rangete piiride kohta tuleks teha ühiselt ning kuigi praktiline rakendamine on väljakutse, püüame kaasata võimalikult palju vaatenurki. Lähtepunktina oleme otsinud oma tehnoloogiasse välist sisendit punane meeskond. Hiljuti alustasime ka avalikkuse panuse küsimine AI kohta hariduses (üks eriti oluline kontekst, milles meie tehnoloogiat kasutatakse).

Oleme katsetamise algstaadiumis, et küsida avalikkuse panust sellistel teemadel nagu süsteemi käitumine, avalikustamismehhanismid (nt vesimärgid) ja meie juurutuspoliitikad laiemalt. Samuti uurime partnerlussuhteid väliste organisatsioonidega, et viia läbi kolmandate osapoolte auditeid meie ohutuse ja poliitikameetmete kohta.

Ajatempel:

Veel alates OpenAI