Hvordan skal AI-systemer opføre sig, og hvem skal bestemme?

Hvordan skal AI-systemer opføre sig, og hvem skal bestemme?

How should AI systems behave, and who should decide? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

I forfølgelsen af ​​vores mission er vi forpligtet til at sikre, at adgang til, fordele ved og indflydelse over AI og AGI er udbredt. Vi mener, at der er mindst tre byggeklodser, der kræves for at nå disse mål i forbindelse med AI-systemadfærd.[^omfang]

1. Forbedre standardadfærd. Vi ønsker, at så mange brugere som muligt finder vores AI-systemer nyttige for dem "ud af boksen" og føler, at vores teknologi forstår og respekterer deres værdier.

Med henblik herpå investerer vi i forskning og teknik for at reducere både grelle og subtile skævheder i, hvordan ChatGPT reagerer på forskellige input. I nogle tilfælde afviser ChatGPT i øjeblikket output, som det ikke burde, og i nogle tilfælde afviser det ikke, når det skal. Vi tror på, at forbedringer på begge punkter er mulige.

Derudover har vi plads til forbedringer i andre dimensioner af systemadfærd, såsom systemet "finder tingene op." Feedback fra brugere er uvurderlig for at lave disse forbedringer.

2. Definer din AI's værdier inden for brede grænser. Vi mener, at kunstig intelligens bør være et nyttigt værktøj for individuelle mennesker, og dermed kan tilpasses af hver bruger op til grænser defineret af samfundet. Derfor udvikler vi en opgradering til ChatGPT, så brugerne nemt kan tilpasse deres adfærd.

Dette vil betyde at tillade systemoutput, som andre mennesker (inklusive os selv) kan være meget uenige i. At finde den rigtige balance her vil være udfordrende – at tage tilpasning til det yderste ville risikere at aktivere ondsindet brug af vores teknologi og sycophantic AI'er, der tankeløst forstærker folks eksisterende overbevisninger.

Der vil derfor altid være nogle grænser for systemadfærd. Udfordringen er at definere, hvad disse grænser er. Hvis vi forsøger at træffe alle disse beslutninger på egen hånd, eller hvis vi forsøger at udvikle et enkelt, monolitisk kunstig intelligens-system, vil vi svigte den forpligtelse, vi giver i vores charter om at "undgå unødig koncentration af magt."

3. Offentlig input om standarder og hårde grænser. En måde at undgå unødig koncentration af magt på er at give folk, der bruger eller er påvirket af systemer som ChatGPT, muligheden for at påvirke disse systems regler.

Vi mener, at mange beslutninger om vores standarder og hårde grænser bør træffes i fællesskab, og selvom praktisk implementering er en udfordring, sigter vi efter at inkludere så mange perspektiver som muligt. Som udgangspunkt har vi søgt eksterne input til vores teknologi i form af rødt teaming. Vi begyndte også for nylig anmode om offentlige input om kunstig intelligens i uddannelse (en særlig vigtig kontekst, hvor vores teknologi bliver implementeret).

Vi er i de tidlige stadier af pilotprojekter for at anmode om offentligt input om emner som systemadfærd, afsløringsmekanismer (såsom vandmærkning) og vores implementeringspolitikker mere bredt. Vi udforsker også partnerskaber med eksterne organisationer for at udføre tredjepartsaudit af vores sikkerheds- og politikindsats.

Tidsstempel:

Mere fra OpenAI