Opetetaan malleja ilmaisemaan epävarmuutensa sanoin

Opetetaan malleja ilmaisemaan epävarmuutensa sanoin

Mallien opettaminen ilmaisemaan epävarmuutensa sanoin PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Osoitamme, että GPT-3-malli voi oppia ilmaisemaan epävarmuutta omista vastauksistaan ​​luonnollisella kielellä – ilman mallilogiitteja. Kun kysymys annetaan, malli luo sekä vastauksen että luottamustason (esim. "90 % luottamus" tai "korkea luottamus"). Nämä tasot kuvaavat todennäköisyyksiä, jotka on kalibroitu hyvin. Malli pysyy myös maltillisesti kalibroituna jakauman muutoksen alla ja on herkkä omien vastaustensa epävarmuudelle sen sijaan, että se matkisi ihmisesimerkkejä. Tietojemme mukaan tämä on ensimmäinen kerta, kun mallin on osoitettu ilmaisevan kalibroitua epävarmuutta omista vastauksistaan ​​luonnollisella kielellä. Kalibroinnin testaamista varten esittelemme CalibratedMath-tehtävien sarjan. Vertaamme sanoilla ilmaistun epävarmuuden kalibrointia ("verbaloitu todennäköisyys") mallilogisteista saatuun epävarmuuteen. Molemmat epävarmuudet pystyvät yleistämään kalibroinnin jakautumissiirtymän aikana. Tarjoamme myös todisteita siitä, että GPT-3:n kyky yleistää kalibrointi riippuu ennalta koulutetuista latenteista esityksistä, jotka korreloivat sen vastausten episteemisen epävarmuuden kanssa.

Aikaleima:

Lisää aiheesta OpenAI