Навчання моделей висловлювати свою невпевненість словами

Навчання моделей висловлювати свою невпевненість словами

Навчання моделей виражати свою невизначеність словами PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Ми показуємо, що модель GPT-3 може навчитися виражати невизначеність щодо власних відповідей природною мовою — без використання логітів моделі. Коли дається запитання, модель генерує як відповідь, так і рівень достовірності (наприклад, «90% довіри» або «висока довіра»). Ці рівні відображаються на ймовірності, які добре відкалібровані. Модель також залишається помірно відкаліброваною в умовах зміни розподілу та чутлива до невизначеності у власних відповідях, а не імітує людські приклади. Наскільки нам відомо, це перший раз, коли було показано, що модель виражає відкалібровану невизначеність щодо власних відповідей природною мовою. Для перевірки калібрування ми представляємо набір завдань CalibratedMath. Ми порівнюємо калібрування невизначеності, вираженої словами («вербалізована ймовірність»), з невизначеністю, отриманою з логітів моделі. Обидва види невизначеності здатні узагальнити калібрування при зсуві розподілу. Ми також надаємо докази того, що здатність GPT-3 узагальнювати калібрування залежить від попередньо навчених латентних уявлень, які корелюють з епістемічною невизначеністю щодо його відповідей.

Часова мітка:

Більше від OpenAI