Riepilogo libri con feedback umano PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Riassumere i libri con il feedback umano

Leggi la cartaSfoglia i campioni

Riassumere i libri con il feedback umano

To in sicurezza Per implementare in futuro un’intelligenza artificiale potente e generica, dobbiamo garantire che i modelli di apprendimento automatico agiscano in conformità con le intenzioni umane. Questa sfida è diventata nota come problema di allineamento.

Una soluzione scalabile al problema dell'allineamento deve lavorare su attività in cui gli output del modello sono difficili o richiedono tempo da valutare per gli esseri umani. Per testare le tecniche di allineamento scalabili, abbiamo addestrato un modello per riassumere interi libri, come mostrato nei seguenti esempi., Il nostro modello funziona riassumendo prima piccole sezioni di un libro, quindi riassumendo tali riassunti in un riepilogo di livello superiore e così via.

Esplora altri campioni

Il nostro modello migliore è messo a punto da GPT-3 e genera riassunti ragionevoli di interi libri, a volte anche corrispondenti alla qualità media dei riepiloghi scritti da esseri umani: ottiene un punteggio di 6/7 (simile al riassunto medio scritto da esseri umani) dagli esseri umani che hanno letto il libro il 5% delle volte e una valutazione 5/7 il 15% delle volte. Il nostro modello raggiunge risultati all'avanguardia anche sul Set di dati BookSum per il riepilogo della lunghezza del libro. Un modello di risposta alle domande zero-shot può utilizzare i riepiloghi del nostro modello per ottenere risultati competitivi su Set di dati di QA narrativo per rispondere a domande lunghe un libro.,

Il nostro approccio: combinare l'apprendimento per rinforzo dal feedback umano e la scomposizione ricorsiva dei compiti

Considera il compito di riassumere un pezzo di testo. Grande i modelli preaddestrati non sono molto bravi nel riepilogo. In passato abbiamo scoperto che addestrare un modello con apprendimento per rinforzo dal feedback umano ha contribuito ad allineare i riepiloghi dei modelli con le preferenze umane su post e articoli brevi. Ma giudicare direttamente i riassunti di interi libri richiede molto impegno poiché un essere umano dovrebbe leggere l’intero libro, il che richiede molte ore.

Per affrontare questo problema, utilizziamo inoltre scomposizione ricorsiva del compito: suddividiamo proceduralmente un compito difficile in compiti più facili. In questo caso suddividiamo il riassunto di un lungo pezzo di testo nel riassunto di diversi pezzi più brevi. Rispetto a una procedura di training end-to-end, la scomposizione ricorsiva delle attività presenta i seguenti vantaggi:

  1. La scomposizione consente agli esseri umani di valutare i riepiloghi del modello più rapidamente utilizzando i riassunti di parti più piccole del libro anziché leggere il testo di origine.
  2. È più facile tracciare il processo di sintesi-scrittura. Ad esempio, puoi tracciare per trovare dove nel testo originale accadono determinati eventi dal riepilogo. Guarda tu stesso il nostro esploratore riassuntivo!
  3. Il nostro metodo può essere utilizzato per riassumere libri di lunghezza illimitata, senza restrizioni dalla lunghezza del contesto dei modelli di trasformatore che utilizziamo.

Perché ci stiamo lavorando

Til suo il lavoro fa parte del nostro in corso riparazioni nell'allineamento di sistemi di intelligenza artificiale avanzati, che è fondamentale la nostra missione. Man mano che addestriamo i nostri modelli a svolgere compiti sempre più complessi, effettuare valutazioni informate dei risultati dei modelli diventerà sempre più difficile per gli esseri umani. Ciò rende più difficile individuare problemi sottili negli output dei modelli che potrebbero portare a conseguenze negative quando questi modelli vengono implementati. Pertanto vogliamo che la nostra capacità di valutare i nostri modelli aumenti man mano che aumentano le loro capacità.

Il nostro attuale approccio a questo problema è quello di consentire agli esseri umani di valutare gli output del modello di apprendimento automatico utilizzando l'assistenza di altri modelli. In questo caso, per valutare i riassunti dei libri diamo agli esseri umani la possibilità di disporre di riassunti dei singoli capitoli scritti dal nostro modello, il che consente loro di risparmiare tempo nella valutazione di questi riassunti rispetto alla lettura del testo originale. I nostri progressi nel riepilogo dei libri rappresentano il primo lavoro empirico su larga scala sulle tecniche di allineamento in scala.

Andando avanti, stiamo ricercando modi migliori per assistere gli esseri umani nella valutazione del comportamento del modello, con l’obiettivo di trovare tecniche in grado di allineare l’intelligenza artificiale generale.

Siamo sempre alla ricerca di persone di talento che si uniscano a noi; quindi se questo lavoro ti interessa, per favore candidarti per entrare a far parte del nostro team!


Ringraziamenti

Vorremmo ringraziare i nostri coautori dell'articolo: Long Ouyang, Daniel Ziegler, Nisan Stiennon e Paul Christiano.

Grazie a coloro che hanno fornito feedback su questa versione: Steve Dowling, Hannah Wong, Miles Brundage, Gretchen Krueger, Ilya Sutskever e Sam Altman.


Design
Justin Jay Wang


Grafica della copertina del libro


Le note

  1. Questi campioni sono stati selezionati da opere in dominio pubblicoe fanno parte dei dati di pre-addestramento di GPT-3. Per controllare in tal senso, ed esclusivamente per scopi di ricerca, il ns carta valuta i riassunti dei libri che il modello non ha mai visto prima. ↩︎

  2. Abbiamo modificato la nostra affermazione originale sui risultati su NarrativeQA dopo essere stati informati di lavori precedenti con risultati migliori dei nostri. ↩︎

Timestamp:

Di più da OpenAI