Anthropic ehitas demokraatliku AI vestlusroti, lastes kasutajatel hääletada selle väärtuste poolt

Anthropic ehitas demokraatliku AI vestlusroti, lastes kasutajatel hääletada selle väärtuste poolt

Tehisintellekti (AI) ettevõte Anthropic võib olla esimene omataoline uuring, mis on välja töötanud suure keelemudeli (LLM), mida kasutajakogukond on väärtushinnangute jaoks viimistletud.

Paljud avalikkusele suunatud LLM-id on välja töötatud kaitsepiiretega – kodeeritud juhistega, mis dikteerivad konkreetset käitumist –, et piirata soovimatuid väljundeid. Näiteks Anthropicu Claude ja OpenAI ChatGPT annavad kasutajatele tavaliselt vägivaldsete või vastuoluliste teemadega seotud väljundipäringutele kindla turvavastuse.

Kuid nagu lugematud asjatundjad on märkinud, võivad kaitsepiirded ja muud sekkumismeetodid kasutajatelt nende agentuuri röövida. See, mida peetakse vastuvõetavaks, ei ole alati kasulik ja see, mida peetakse kasulikuks, pole alati vastuvõetav. Ja moraali või väärtuspõhiste otsuste määratlused võivad kultuuride, rahvaste ja ajaperioodide lõikes erineda.

Seotud: Ühendkuningriik võtab kavandatud novembri tippkohtumisel sihikule võimalikud tehisintellektiohud

Üks võimalik lahendus sellele on lubada kasutajatel dikteerida AI mudelite väärtuste joondust. Anthropicu "kollektiivse põhiseadusliku AI" eksperiment on selle "räpane väljakutse" vastu.

Anthropic küsis koostöös Polise ja Collective Intelligence Projectiga 1,000 kasutajat erinevatest demograafilistest gruppidest ja palus neil vastata küsitluse kaudu paljudele küsimustele.

Anthropic ehitas demokraatliku AI-vestlusboti, lastes kasutajatel hääletada selle väärtuste poolt PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.
Allikas, Antroopne

Väljakutse keskendub kasutajatele võimaldamisele agentuuril otsustada, mis on sobiv, ilma et nad puutuksid kokku sobimatute väljunditega. See hõlmas kasutajate väärtuste otsimist ja seejärel nende ideede rakendamist mudeliks, mis on juba koolitatud.

Anthropic kasutab selleks meetodit, mida nimetatakse põhiseaduslikuks AI-ks otsene oma jõupingutusi LLM-ide häälestamisel ohutuse ja kasulikkuse tagamiseks. Põhimõtteliselt hõlmab see mudelile reeglite loendi esitamist, millest see peab kinni pidama, ja seejärel selle koolitamist nende reeglite rakendamiseks kogu protsessi vältel, sarnaselt põhiseadusega paljudes riikides valitsemise põhidokumendiks.

Collective Constitutional AI eksperimendis üritas Anthropic integreerida grupipõhist tagasisidet mudeli põhikirja. Tulemused, vastavalt Anthropicu ajaveebi postitusele, näib olevat olnud teaduslik edu, kuna see valgustas edasisi väljakutseid eesmärgi saavutamiseks, milleks on võimaldada LLM-i toote kasutajatel määrata kindlaks oma kollektiivsed väärtused.

Üks raskusi, mille meeskond pidi ületama, oli võrdlusuuringu protsessi jaoks uudse meetodi leidmine. Kuna see eksperiment näib olevat esimene omataoline ja see tugineb Anthropicu põhiseaduslikule AI metoodikale, puudub väljakujunenud test baasmudelite võrdlemiseks rahvahulgast pärinevate väärtustega häälestatud mudelitega.

Lõppkokkuvõttes näib, et mudel, mis rakendas kasutajate küsitluste tagasiside põhjal saadud andmeid, ületas kallutatud väljundite osas baasmudelit "veidi".

Vastavalt ajaveebi postitusele:

"Me oleme protsessist rohkem põnevil kui saadud mudel. Usume, et see võib olla üks esimesi juhtumeid, kus avalikkuse liikmed on rühmana tahtlikult suunanud suure keelemudeli käitumist. Loodame, et kogukonnad üle kogu maailma tuginevad sellistele tehnikatele, et koolitada kultuuri- ja kontekstispetsiifilisi mudeleid, mis vastavad nende vajadustele.

Ajatempel:

Veel alates Cointelegraph