Att lära modeller att uttrycka sin osäkerhet i ord

Att lära modeller att uttrycka sin osäkerhet i ord

Lära modeller att uttrycka sin osäkerhet i ord PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Vi visar att en GPT-3-modell kan lära sig att uttrycka osäkerhet om sina egna svar på naturligt språk – utan att använda modelllogit. När en fråga ställs genererar modellen både ett svar och en nivå av förtroende (t.ex. "90 % konfidens" eller "högt förtroende"). Dessa nivåer mappar till sannolikheter som är väl kalibrerade. Modellen förblir också måttligt kalibrerad under distributionsskifte och är känslig för osäkerhet i sina egna svar, snarare än att imitera mänskliga exempel. Så vitt vi vet är detta första gången en modell har visat sig uttrycka kalibrerad osäkerhet om sina egna svar på naturligt språk. För att testa kalibrering introducerar vi CalibratedMath-sviten med uppgifter. Vi jämför kalibreringen av osäkerhet uttryckt i ord ("verbaliserad sannolikhet") med osäkerhet extraherad från modelllogiter. Båda typerna av osäkerhet kan generalisera kalibrering under distributionsskifte. Vi tillhandahåller också bevis för att GPT-3:s förmåga att generalisera kalibrering beror på förtränade latenta representationer som korrelerar med epistemisk osäkerhet över dess svar.

Tidsstämpel:

Mer från OpenAI