Hur ska AI-system bete sig och vem ska bestämma?

Hur ska AI-system bete sig och vem ska bestämma?

Hur ska AI-system bete sig och vem ska bestämma? PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

I vår strävan efter vårt uppdrag är vi fast beslutna att säkerställa att tillgång till, fördelar av och inflytande över AI och AGI är utbredd. Vi tror att det krävs minst tre byggstenar för att uppnå dessa mål i samband med AI-systembeteende.[^omfattning]

1. Förbättra standardbeteendet. Vi vill att så många användare som möjligt ska hitta våra AI-system användbara för dem "out of the box" och känna att vår teknik förstår och respekterar deras värderingar.

Mot det syftet investerar vi i forskning och ingenjörskonst för att minska både skarpa och subtila fördomar i hur ChatGPT reagerar på olika input. I vissa fall vägrar ChatGPT för närvarande utdata som den inte borde, och i vissa fall vägrar den inte när den borde. Vi tror att förbättringar i båda avseenden är möjliga.

Dessutom har vi utrymme för förbättringar i andra dimensioner av systembeteende, som att systemet "hittar på saker." Feedback från användare är ovärderlig för att göra dessa förbättringar.

2. Definiera din AI:s värden, inom vida gränser. Vi anser att AI bör vara ett användbart verktyg för enskilda människor, och därmed anpassningsbart av varje användare upp till gränser definierade av samhället. Därför utvecklar vi en uppgradering till ChatGPT så att användare enkelt kan anpassa sitt beteende.

Detta kommer att innebära att tillåta systemutgångar som andra människor (inklusive vi själva) kan vara mycket oense med. Att hitta rätt balans här kommer att vara utmanande – att ta anpassning till det extrema skulle riskera att möjliggöra skadlig användning av vår teknologi och sycophantic AI:er som obemärkt förstärker människors existerande tro.

Det kommer därför alltid att finnas några gränser för systemets beteende. Utmaningen är att definiera vad dessa gränser är. Om vi ​​försöker göra alla dessa beslut på egen hand, eller om vi försöker utveckla ett enda, monolitiskt AI-system, kommer vi att misslyckas med det åtagande vi gör i vår stadga att "undvika otillbörlig koncentration av makt."

3. Offentlig information om standardvärden och hårda gränser. Ett sätt att undvika otillbörlig maktkoncentration är att ge personer som använder eller påverkas av system som ChatGPT möjligheten att påverka systemens regler.

Vi tror att många beslut om våra standarder och hårda gränser bör fattas kollektivt, och även om praktisk implementering är en utmaning, strävar vi efter att inkludera så många perspektiv som möjligt. Som utgångspunkt har vi sökt extern input på vår teknik i form av rött teaming. Vi började också nyligen efterfrågar offentliga synpunkter om AI i utbildning (ett särskilt viktigt sammanhang där vår teknik används).

Vi är i de tidiga stadierna av att testa insatser för att få offentliga input om ämnen som systembeteende, avslöjandemekanismer (som vattenmärkning) och våra implementeringspolicyer mer allmänt. Vi undersöker också partnerskap med externa organisationer för att genomföra tredjepartsrevisioner av våra säkerhets- och policyinsatser.

Tidsstämpel:

Mer från OpenAI