Mudelite õpetamine väljendama oma ebakindlust sõnadega

Mudelite õpetamine väljendama oma ebakindlust sõnadega

Mudelite õpetamine väljendama oma ebakindlust sõnadega PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.

Näitame, et GPT-3 mudel võib õppida väljendama ebakindlust oma vastuste suhtes loomulikus keeles – ilma mudeli logite kasutamata. Küsimuse esitamisel genereerib mudel nii vastuse kui ka usaldustaseme (nt “90% usaldus” või “kõrge usaldusväärsus”). Need tasemed vastavad tõenäosustele, mis on hästi kalibreeritud. Mudel jääb jaotuse nihke ajal ka mõõdukalt kalibreerituks ja on tundlik oma vastuste ebakindluse suhtes, mitte jäljendada inimnäiteid. Meile teadaolevalt on see esimene kord, kui mudel väljendab oma vastuste kalibreeritud ebakindlust loomulikus keeles. Kalibreerimise testimiseks tutvustame CalibratedMath ülesannete komplekti. Võrdleme sõnadega väljendatud määramatuse kalibreerimist ("verbaliseeritud tõenäosus") mudeli logititest eraldatud määramatusega. Mõlemat tüüpi määramatused on võimelised kalibreerimist jaotuse nihke korral üldistama. Samuti pakume tõendeid selle kohta, et GPT-3 võime kalibreerimist üldistada sõltub eelnevalt väljaõpetatud varjatud esitustest, mis korreleeruvad selle vastuste episteemilise ebakindlusega.

Ajatempel:

Veel alates OpenAI