انسانی تاثرات پلیٹو بلاکچین ڈیٹا انٹیلی جنس کے ساتھ کتابوں کا خلاصہ۔ عمودی تلاش۔ عی

انسانی تاثرات کے ساتھ کتابوں کا خلاصہ

کاغذ پڑھیںنمونے براؤز کریں۔

انسانی تاثرات کے ساتھ کتابوں کا خلاصہ

To safely deploy powerful, general-purpose artificial intelligence in the future, we need to ensure that machine learning models act in accordance with human intentions. This challenge has become known as the alignment problem.

سیدھ کے مسئلے کے قابل توسیعی حل کے لیے ایسے کاموں پر کام کرنے کی ضرورت ہے جہاں ماڈل آؤٹ پٹس مشکل ہوں یا انسانوں کے لیے اندازہ لگانا وقت لگیں۔ اسکیل ایبل الائنمنٹ تکنیکوں کو جانچنے کے لیے، ہم نے پوری کتابوں کا خلاصہ کرنے کے لیے ایک ماڈل کو تربیت دی، جیسا کہ درج ذیل نمونوں میں دکھایا گیا ہے۔ہے [1] Our model works by first summarizing small sections of a book, then summarizing those summaries into a higher-level summary, and so on.

مزید نمونے دریافت کریں۔

ہمارا بہترین ماڈل GPT-3 سے ٹھیک ہے اور پوری کتابوں کے سمجھدار خلاصے تیار کرتا ہے، بعض اوقات انسانوں کے لکھے گئے خلاصوں کے اوسط معیار سے بھی میل کھاتا ہے: یہ انسانوں کی طرف سے 6/7 کی درجہ بندی (اوسط انسانی تحریری خلاصے کی طرح) حاصل کرتا ہے۔ جنہوں نے کتاب کو 5% وقت اور 5/7 ریٹنگ 15% وقت پڑھا ہے۔ ہمارا ماڈل بھی جدید ترین نتائج حاصل کرتا ہے۔ BookSum ڈیٹاسیٹ for book-length summarization. A zero-shot question-answering model can use our model’s summaries to obtain competitive results on the بیانیہ کیو اے ڈیٹاسیٹ for book-length question answering.ہے [2]

ہمارا نقطہ نظر: انسانی آراء اور تکراری ٹاسک کے سڑنے سے کمک سیکھنے کا امتزاج

متن کے ایک ٹکڑے کا خلاصہ کرنے کے کام پر غور کریں۔ بڑا pretrained models aren’t very good at summarization. In the past we found that training a model with انسانی آراء سے کمک سیکھنا helped align model summaries with human preferences on short posts and articles. But judging summaries of entire books takes a lot of effort to do directly since a human would need to read the entire book, which takes many hours.

اس مسئلے کو حل کرنے کے لیے، ہم مزید استعمال کرتے ہیں۔ تکراری کام سڑن: we procedurally break up a difficult task into easier ones. In this case we break up summarizing a long piece of text into summarizing several shorter pieces. Compared to an end-to-end training procedure, recursive task decomposition has the following advantages:

  1. Decomposition allows humans to evaluate model summaries more quickly by using summaries of smaller parts of the book rather than reading the source text.
  2. خلاصہ لکھنے کے عمل کا سراغ لگانا آسان ہے۔ مثال کے طور پر، آپ یہ معلوم کرنے کے لیے سراغ لگا سکتے ہیں کہ اصل متن میں خلاصہ کے کچھ واقعات کہاں ہوتے ہیں۔ پر خود ہی دیکھیں our summary explorer!
  3. Our method can be used to summarize books of unbounded length, unrestricted by the context length of the transformer models we use.

ہم اس پر کیوں کام کر رہے ہیں۔

Tان work is part of our جاری تحقیق اعلی درجے کی AI نظاموں کو سیدھ میں لانے میں، جس کی کلید ہے۔ our mission. As we train our models to do increasingly complex tasks, making informed evaluations of the models’ outputs will become increasingly difficult for humans. This makes it harder to detect subtle problems in model outputs that could lead to negative consequences when these models are deployed. Therefore we want our ability to evaluate our models to increase as their capabilities increase.

اس مسئلے پر ہمارا موجودہ نقطہ نظر یہ ہے۔ انسانوں کو دوسرے ماڈلز کی مدد سے مشین لرننگ ماڈل آؤٹ پٹ کا جائزہ لینے کے لیے بااختیار بنائیں. In this case, to evaluate book summaries we empower humans with individual chapter summaries written by our model, which saves them time when evaluating these summaries relative to reading the source text. Our progress on book summarization is the first large-scale empirical work on scaling alignment techniques.

Going forward, we are researching better ways to assist humans in evaluating model behavior, with the goal of finding techniques that scale to aligning artificial general intelligence.

We’re always looking for more talented people to join us; so if this work interests you, please apply to join our team!


منظوریاں

We’d like to acknowledge our paper co-authors: Long Ouyang, Daniel Ziegler, Nisan Stiennon, and Paul Christiano.

Thanks to the following for feedback on this release: Steve Dowling, Hannah Wong, Miles Brundage, Gretchen Krueger, Ilya Sutskever, and Sam Altman.


ڈیزائن
Justin Jay Wang


Book Cover Artwork


فوٹیاں

  1. These samples were selected from works in the عوامی ڈومین, and are part of GPT-3's pretraining data. To control for this effect, and purely for research purposes, our کاغذ evaluates summaries of books the model has never seen before. ↩︎

  2. We’ve amended our original claim about results on NarrativeQA after being made aware of prior work with better results than ours. ↩︎

ٹائم اسٹیمپ:

سے زیادہ اوپنائی