Oppsummering av bøker med menneskelig tilbakemelding PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Oppsummering av bøker med menneskelig tilbakemelding

Les papirBla gjennom prøver

Oppsummering av bøker med menneskelig tilbakemelding

To trygt distribuere kraftig, generell kunstig intelligens i fremtiden, må vi sikre at maskinlæringsmodeller handler i samsvar med menneskelige intensjoner. Denne utfordringen har blitt kjent som justeringsproblem.

En skalerbar løsning på innrettingsproblemet må fungere på oppgaver der modellutdata er vanskelige eller tidkrevende for mennesker å evaluere. For å teste skalerbare innrettingsteknikker trente vi en modell for å oppsummere hele bøker, som vist i følgende eksempler.[1] Modellen vår fungerer ved først å oppsummere små deler av en bok, deretter oppsummere disse sammendragene til et sammendrag på høyere nivå, og så videre.

Utforsk flere eksempler

Vår beste modell er finjustert fra GPT-3 og genererer fornuftige sammendrag av hele bøker, noen ganger til og med som samsvarer med gjennomsnittskvaliteten på menneskeskrevne sammendrag: den oppnår en vurdering på 6/7 (ligner på gjennomsnittlig menneskeskrevne sammendrag) fra mennesker som har lest boken 5 % av tiden og en 5/7 vurdering 15 % av gangene. Vår modell oppnår også toppmoderne resultater på BookSum datasett for boklengde oppsummering. En svarmodell med null skudd kan bruke modellens sammendrag for å oppnå konkurransedyktige resultater på NarrativeQA datasett for svar på spørsmål i boklengde.[2]

Vår tilnærming: Å kombinere forsterkende læring fra menneskelig tilbakemelding og rekursiv oppgavedekomponering

Vurder oppgaven med å oppsummere et tekststykke. Stor forhåndstrente modeller er ikke så gode til å oppsummere. Tidligere fant vi at trening en modell med forsterkende læring fra menneskelig tilbakemelding bidro til å tilpasse modellsammendrag med menneskelige preferanser på korte innlegg og artikler. Men å bedømme sammendrag av hele bøker krever mye krefter å gjøre direkte siden et menneske trenger å lese hele boken, noe som tar mange timer.

For å løse dette problemet bruker vi i tillegg rekursiv oppgavenedbrytning: vi prosedyremessig deler opp en vanskelig oppgave i enklere. I dette tilfellet deler vi opp å oppsummere et langt tekststykke til å oppsummere flere kortere stykker. Sammenlignet med en ende-til-ende-opplæringsprosedyre, har rekursiv oppgavedekomponering følgende fordeler:

  1. Dekomponering gjør at mennesker kan evaluere modellsammendrag raskere ved å bruke sammendrag av mindre deler av boken i stedet for å lese kildeteksten.
  2. Det er lettere å spore prosessen med å skrive sammendrag. For eksempel kan du spore for å finne hvor i den originale teksten enkelte hendelser fra sammendraget skjer. Se selv på vår oppsummeringsutforsker!
  3. Metoden vår kan brukes til å oppsummere bøker med ubegrenset lengde, ubegrenset av kontekstlengden til transformatormodellene vi bruker.

Hvorfor vi jobber med dette

Thans arbeidet er en del av vårt pågående forskning til å samkjøre avanserte AI-systemer, som er nøkkelen til vårt oppdrag. Ettersom vi trener modellene våre til å utføre stadig mer komplekse oppgaver, vil det bli stadig vanskeligere for mennesker å gjøre informerte evalueringer av modellenes resultater. Dette gjør det vanskeligere å oppdage subtile problemer i modellutdata som kan føre til negative konsekvenser når disse modellene distribueres. Derfor ønsker vi at vår evne til å evaluere modellene våre skal øke etter hvert som deres evner øker.

Vår nåværende tilnærming til dette problemet er å gi mennesker mulighet til å evaluere utdata fra maskinlæringsmodeller ved å bruke assistanse fra andre modeller. I dette tilfellet, for å evaluere boksammendrag, styrker vi mennesker med individuelle kapittelsammendrag skrevet av modellen vår, noe som sparer dem tid når de evaluerer disse sammendragene i forhold til å lese kildeteksten. Vår fremgang med bokoppsummering er det første storstilte empiriske arbeidet med skaleringsjusteringsteknikker.

Fremover forsker vi på bedre måter å hjelpe mennesker med å evaluere modellatferd, med målet om å finne teknikker som skaleres for å tilpasse kunstig generell intelligens.

Vi er alltid på utkikk etter flere dyktige folk til å bli med oss; så hvis dette arbeidet interesserer deg, vær så snill søke om å bli med i teamet vårt!


Erkjennelsene

Vi vil gjerne anerkjenne våre papirmedforfattere: Long Ouyang, Daniel Ziegler, Nisan Stiennon og Paul Christiano.

Takk til følgende for tilbakemelding på denne utgivelsen: Steve Dowling, Hannah Wong, Miles Brundage, Gretchen Krueger, Ilya Sutskever og Sam Altman.


utforming
Justin Jay Wang


Bokomslagskunst


Fotnoter

  1. Disse prøvene ble valgt fra verk i offentlig domene, og er en del av GPT-3s fortreningsdata. For å kontrollere for denne effekten, og rent for forskningsformål, vår papir vurderer sammendrag av bøker modellen aldri har sett før. ↩︎

  2. Vi har endret vår opprinnelige påstand om resultater på NarrativeQA etter å ha blitt gjort oppmerksom på tidligere arbeid med bedre resultater enn vårt. ↩︎

Tidstempel:

Mer fra OpenAI