Anthropic je zgradil demokratičnega klepetalnega robota z umetno inteligenco tako, da je uporabnikom omogočil glasovanje za njegove vrednote

Anthropic je zgradil demokratičnega klepetalnega robota z umetno inteligenco tako, da je uporabnikom omogočil glasovanje za njegove vrednote

Podjetje Anthropic, ki je morda prva tovrstna študija, je razvilo velik jezikovni model (LLM), ki je bil natančno prilagojen za vrednostne sodbe skupnosti uporabnikov.

Veliko javnih LLM-jev je bilo razvitih z zaščitnimi ograjami – kodiranimi navodili, ki narekujejo specifično vedenje – v poskusu omejitve neželenih rezultatov. Anthropic's Claude in OpenAI's ChatGPT, na primer, uporabnikom običajno nudita pripravljen varnostni odziv na izhodne zahteve, povezane z nasilnimi ali kontroverznimi temami.

Vendar, kot so poudarili številni strokovnjaki, lahko zaščitne ograje in druge intervencijske tehnike služijo oropanju uporabnikov njihove agencije. Kar velja za sprejemljivo, ni vedno uporabno in kar se šteje za koristno, ni vedno sprejemljivo. Definicije morale ali vrednotnih sodb se lahko razlikujejo med kulturami, prebivalci in časovnimi obdobji.

Povezano: Združeno kraljestvo se bo na načrtovanem novembrskem vrhu osredotočilo na potencialne grožnje z umetno inteligenco

Eno od možnih rešitev za to je omogočiti uporabnikom, da narekujejo usklajevanje vrednosti za modele AI. Anthropicov eksperiment »kolektivne ustavne umetne inteligence« je udarec v ta »neurejen izziv«.

Anthropic je v sodelovanju s Polisom in Collective Intelligence Project izbral 1,000 uporabnikov iz različnih demografskih skupin in jih prosil, naj odgovorijo na vrsto vprašanj z glasovanjem.

Anthropic je zgradil demokratičnega klepetalnega robota z umetno inteligenco tako, da je uporabnikom omogočil glasovanje za njegove vrednote PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
Vir, Antropično

Izziv je osredotočen na to, da uporabnikom omogočite agenciji, da ugotovijo, kaj je primerno, ne da bi jih izpostavili neprimernim rezultatom. To je vključevalo pridobivanje uporabniških vrednosti in nato implementacijo teh idej v model, ki je že bil usposobljen.

Anthropic za neposredna svoja prizadevanja za prilagoditev LLM-jev za varnost in uporabnost. V bistvu to vključuje dajanje modela seznama pravil, ki se jih mora držati, in nato usposabljanje za izvajanje teh pravil v celotnem procesu, podobno kot ustava služi kot temeljni dokument za upravljanje v mnogih državah.

V eksperimentu Collective Constitutional AI je Anthropic poskušal integrirati skupinske povratne informacije v strukturo modela. Rezultati, po na objavo v spletnem dnevniku Anthropic, se zdi, da je bil znanstveni uspeh, saj je osvetlil nadaljnje izzive pri doseganju cilja, da se uporabnikom izdelka LLM omogoči določitev njihovih skupnih vrednot.

Ena od težav, ki jo je morala premagati ekipa, je bila izdelava nove metode za postopek primerjalne analize. Ker se zdi, da je ta poskus prvi te vrste in se opira na metodologijo ustavne umetne inteligence podjetja Anthropic, ni uveljavljenega testa za primerjavo osnovnih modelov s tistimi, ki so prilagojeni vrednotam množice.

Navsezadnje se zdi, kot da je model, ki je implementiral podatke, ki izhajajo iz povratnih informacij anketiranja uporabnikov, "nekoliko" presegel osnovni model na področju pristranskih rezultatov.

Glede na objavo v blogu:

»Bolj kot nad nastalim modelom smo navdušeni nad procesom. Verjamemo, da je to morda eden prvih primerov, ko so člani javnosti kot skupina namenoma usmerjali vedenje velikega jezikovnega modela. Upamo, da bodo skupnosti po vsem svetu gradile na takšnih tehnikah za usposabljanje kulturno in kontekstno specifičnih modelov, ki bodo služili njihovim potrebam.«

Časovni žig:

Več od Cointelegraph