Hvordan skal AI-systemer oppføre seg, og hvem skal bestemme?

Hvordan skal AI-systemer oppføre seg, og hvem skal bestemme?

Hvordan skal AI-systemer oppføre seg, og hvem skal bestemme? PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

I jakten på oppdraget vårt er vi forpliktet til å sikre at tilgang til, fordeler fra og innflytelse over AI og AGI er utbredt. Vi tror det er minst tre byggeklosser som kreves for å oppnå disse målene i sammenheng med AI-systematferd.[^omfang]

1. Forbedre standard oppførsel. Vi vil at så mange brukere som mulig skal finne at AI-systemene våre er nyttige for dem "ut av boksen" og føle at teknologien vår forstår og respekterer verdiene deres.

Mot det målet investerer vi i forskning og ingeniørarbeid for å redusere både skarpe og subtile skjevheter i hvordan ChatGPT reagerer på ulike input. I noen tilfeller nekter ChatGPT for øyeblikket utdata som den ikke burde, og i noen tilfeller nekter den ikke når den burde. Vi tror at forbedring på begge punkter er mulig.

I tillegg har vi rom for forbedringer i andre dimensjoner av systematferd, for eksempel at systemet «finner opp ting». Tilbakemeldinger fra brukere er uvurderlige for å gjøre disse forbedringene.

2. Definer AI-verdiene, innenfor vide rammer. Vi mener at AI bør være et nyttig verktøy for enkeltpersoner, og dermed tilpasses av hver bruker opp til grenser definert av samfunnet. Derfor utvikler vi en oppgradering til ChatGPT slik at brukerne enkelt kan tilpasse oppførselen.

Dette vil bety å tillate systemutganger som andre mennesker (inkludert oss selv) kan være sterkt uenige i. Å finne den rette balansen her vil være utfordrende – å ta tilpasning til det ekstreme ville risikere å aktivere ondsinnet bruk av vår teknologi og sycophantic AI som tankeløst forsterker folks eksisterende tro.

Det vil derfor alltid være noen grenser for systematferd. Utfordringen er å definere hva disse grensene er. Hvis vi prøver å gjøre alle disse avgjørelsene på egen hånd, eller hvis vi prøver å utvikle et enkelt, monolittisk AI-system, vil vi mislykkes i forpliktelsen vi gjør i charteret vårt om å "unngå unødig konsentrasjon av makt."

3. Offentlig innspill om standarder og harde grenser. En måte å unngå unødig konsentrasjon av makt er å gi folk som bruker eller er påvirket av systemer som ChatGPT muligheten til å påvirke disse systemenes regler.

Vi mener at mange beslutninger om våre mislighold og harde grenser bør tas i fellesskap, og selv om praktisk implementering er en utfordring, tar vi sikte på å inkludere så mange perspektiver som mulig. Som utgangspunkt har vi søkt eksterne innspill på teknologien vår i form av rød teaming. Vi begynte også nylig ber om offentlige innspill på AI i utdanning (en spesielt viktig kontekst der teknologien vår blir distribuert).

Vi er i de tidlige stadiene av pilotarbeid for å be om offentlige innspill om emner som systematferd, avsløringsmekanismer (som vannmerking) og implementeringspolicyene våre mer generelt. Vi utforsker også partnerskap med eksterne organisasjoner for å gjennomføre tredjepartsrevisjoner av vår sikkerhets- og policyinnsats.

Tidstempel:

Mer fra OpenAI