Raamatute kokkuvõte inimeste tagasisidega PlatoBlockchain andmete intelligentsusega. Vertikaalne otsing. Ai.

Inimliku tagasisidega raamatute kokkuvõte

Lugege paberitSirvige näidiseid

Inimliku tagasisidega raamatute kokkuvõte

To ohutult Kui kasutame tulevikus võimsat üldotstarbelist tehisintellekti, peame tagama, et masinõppemudelid toimiksid kooskõlas inimese kavatsustega. See väljakutse on saanud tuntuks kui joondamise probleem.

Joondusprobleemi skaleeritav lahendus peab töötama ülesannetega, mille puhul mudeli väljundi hindamine on inimestel keeruline või aeganõudev. Skaleeritavate joondustehnikate testimiseks koolitasime mudeli, mis teeb kokkuvõtte tervetest raamatutest, nagu on näidatud järgmistes näidistes.[1] Meie mudel toimib nii, et esmalt võtab kokku väikesed osad raamatust, seejärel teeb need kokkuvõtted kõrgema taseme kokkuvõtteks ja nii edasi.

Uurige rohkem näidiseid

Meie parim mudel on peenhäälestatud GPT-3 põhjal ja loob mõistlikke kokkuvõtteid tervetest raamatutest, mis mõnikord isegi ühtivad inimeste kirjutatud kokkuvõtete keskmise kvaliteediga: see saavutab inimeste hinnangul 6/7 (sarnane keskmise inimese kirjutatud kokkuvõttega). kes on raamatut lugenud 5% ajast ja hinnanguga 5/7 15% ajast. Meie mudel saavutab ka tipptasemel tulemusi BookSum andmestik raamatu pikkuse kokkuvõtte jaoks. Nullkaadriline küsimustele vastamise mudel võib kasutada meie mudeli kokkuvõtteid, et saada konkurentsivõimelisi tulemusi NarrativeQA andmestik raamatu pikkusele küsimusele vastamiseks.[2]

Meie lähenemisviis: inimeste tagasisidest õppimise tugevdamise ja ülesannete rekursiivse lagunemise ühendamine

Mõelge tekstiosa kokkuvõtte tegemise ülesandele. Suur eelkoolitatud mudelid ei ole kokkuvõtete tegemisel kuigi head. Varem leidsime, et koolitades modelli õppimine inimeste tagasisidest aitas lühikeste postituste ja artiklite mudelite kokkuvõtteid inimeste eelistustega vastavusse viia. Kuid tervete raamatute kokkuvõtete otsustamine nõuab palju pingutusi, kuna inimene peaks kogu raamatu läbi lugema, mis võtab palju tunde.

Selle probleemi lahendamiseks kasutame lisaks rekursiivne ülesannete lagunemine: jagame protseduuriliselt keerulise ülesande lihtsamaks. Sel juhul jagame pika teksti kokkuvõtte mitmeks lühemaks osaks. Võrreldes otsast lõpuni väljaõppe protseduuriga on ülesannete rekursiivsel dekomponeerimisel järgmised eelised:

  1. Dekomponeerimine võimaldab inimestel mudelite kokkuvõtteid kiiremini hinnata, kasutades lähteteksti lugemise asemel raamatu väiksemate osade kokkuvõtteid.
  2. Kokkuvõtte kirjutamise protsessi on lihtsam jälgida. Näiteks saate jälgida, et leida, kus originaaltekstis teatud kokkuvõtte sündmused juhtuvad. Vaadake ise meie kokkuvõttev uurija!
  3. Meie meetodit saab kasutada piiramatu pikkusega raamatute kokkuvõtmiseks, mida ei piira meie kasutatavate trafomudelite kontekstipikkus.

Miks me selle kallal töötame?

Ttema töö on osa meie tööst jätkuv teadustöö täiustatud tehisintellektisüsteemide joondamiseks, mis on võtmetähtsusega meie missioon. Kuna me koolitame oma mudeleid järjest keerukamate ülesannete täitmiseks, muutub mudelite väljunditele teadlike hinnangute andmine inimestele üha keerulisemaks. See muudab mudeliväljundites peente probleemide tuvastamise keerulisemaks, mis võivad nende mudelite kasutuselevõtul kaasa tuua negatiivseid tagajärgi. Seetõttu soovime, et nende võimekuse kasvades suureneks meie mudelite hindamise võime.

Meie praegune lähenemine sellele probleemile on annab inimestele võimaluse hinnata masinõppe mudeli väljundeid, kasutades teiste mudelite abi. Sel juhul anname inimestele raamatukokkuvõtete hindamiseks meie mudeliga kirjutatud üksikute peatükkide kokkuvõtted, mis säästab aega nende kokkuvõtete hindamisel võrreldes lähteteksti lugemisega. Meie edusammud raamatute kokkuvõtete tegemisel on esimene suuremahuline empiiriline töö skaleerimise joondamise tehnikate kohta.

Edaspidi uurime paremaid viise, kuidas aidata inimestel mudelikäitumist hinnata, eesmärgiga leida tehnikaid, mis võimaldavad ühtlustada tehisintellekti.

Otsime alati endaga liituma andekamaid inimesi; nii et kui see töö teile huvi pakub, palun kandideeri meie meeskonnaga liitumiseks!


Tunnustused

Soovime tunnustada meie paberi kaasautoreid: Long Ouyangi, Daniel Zieglerit, Nisan Stiennonit ja Paul Christianot.

Täname järgmisi selle väljalase kohta tagasiside eest: Steve Dowling, Hannah Wong, Miles Brundage, Gretchen Krueger, Ilya Sutskever ja Sam Altman.


Disain
Justin Jay Wang


Raamatu kaanekujundus


Allmärkused

  1. Need proovid valiti välja töödest üldkasutatav, ja need on osa GPT-3 koolituseelsetest andmetest. Selle mõju kontrollimiseks ja puhtalt uurimise eesmärgil on meie paber hindab kokkuvõtteid raamatutest, mida modell pole kunagi varem näinud. ↩︎

  2. Muutsime oma algset väidet NarrativeQA tulemuste kohta pärast seda, kui oleme teadlikud varasemast tööst, mille tulemused olid meie omast paremad. ↩︎

Ajatempel:

Veel alates OpenAI