Tidigare OpenAI-forskare: Det finns en 50 % chans att AI slutar i "Catastrophe"

Tidigare OpenAI-forskare: Det finns en 50 % chans att AI slutar i "Catastrophe"

Tidigare OpenAI-forskare: Det finns en 50 % chans att AI slutar i "Catastrophe" PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

En före detta nyckelforskare vid OpenAI tror att det finns en hygglig chans att artificiell intelligens kommer att ta kontroll över mänskligheten och förstöra den.

"Jag tror att det kanske finns en 10-20 % chans att AI tar över, [med] många [eller] de flesta människor döda," Paul Christiano, som drev teamet för språkmodellanpassning på OpenAI, sade på Banklös podcast. "Jag tar det på stort allvar."

Christiano, som nu leder Alignment Research Center, en ideell organisation som syftar till att anpassa AI:er och maskininlärningssystem till "mänskliga intressen", sa att han är särskilt orolig över vad som händer när AI:er når en människas logiska och kreativa kapacitet. "Sammantaget kanske vi pratar om en 50/50 chans för katastrof strax efter att vi har system på mänsklig nivå", sa han.

Christiano är i gott sällskap. Nyligen massor av forskare runt om i världen undertecknade ett onlinebrev uppmanar OpenAI och andra företag som tävlar om att bygga snabbare, smartare AI: er, trycker på pausknappen för utveckling. Stora peruker från Bill Gates till Elon Musk har uttryckt oro över att AI utgör en uppenbar, existentiell fara för människor, om den inte kontrolleras.

Var inte ond

Varför skulle AI bli ond? I grund och botten av samma anledning som en person gör: träning och livserfarenhet.

Som en bebis, AI är tränad genom att ta emot berg av data utan att riktigt veta vad man ska göra med den. Den lär sig genom att försöka uppnå vissa mål med slumpmässiga handlingar och nollställer "korrekta" resultat, som definieras av träning.

Hittills, genom att fördjupa sig i data som samlats på internet, har maskininlärning gjort det möjligt för AI:er att göra stora steg i att sammanställa välstrukturerade, sammanhängande svar på mänskliga frågor. Samtidigt blir den underliggande datorbehandlingen som driver maskininlärning snabbare, bättre och mer specialiserad. Vissa forskare tror att inom ett decennium kommer den processorkraften, i kombination med artificiell intelligens, att tillåta dessa maskiner att bli kännande, som människor, och ha en självkänsla.

Det är då saker och ting blir håriga. Och det är därför som många forskare hävdar att vi måste ta reda på hur man lägger skyddsräcken nu, snarare än senare. Så länge AI-beteendet övervakas, är det kan styras.

Men om myntet landar på andra sidan, säger till och med OpenAI:s medgrundare att saker och ting kan bli väldigt, väldigt dåligt.

Foomsday?

Detta ämne har varit på bordet i flera år. En av de mest kända debatterna i ämnet ägde rum för 11 år sedan mellan AI-forskare Eliezer Yudkowsky och ekonomen Robin Hansson. De två diskuterade möjligheten att nå "foom”—som tydligen står för “Fast Onset of Overwhelming Mastery”—punkten då AI blir exponentiellt smartare än människor och kapabel till självförbättring. (Herledningen av termen "foom" är diskutabelt.)

"Eliezer och hans medhjälpare tror att det är oundvikligt att AI:er kommer att "fomma" utan förvarning, vilket betyder att du en dag bygger en AGI [artificiell allmän intelligens] och timmar eller dagar senare har saken rekursivt självförbättrats till gudliknande intelligens och sedan äter upp världen . Är detta realistiskt?" Perry Metzger, en datavetare aktiv i AI-gemenskapen, twittrade nyligen.

Metzger hävdade att även när datorsystem når en nivå av mänsklig intelligens, finns det fortfarande gott om tid att avvärja eventuella dåliga resultat. "Är 'foom' logiskt möjligt? Kanske. Jag är inte övertygad, sa han. "Är det möjligt i den verkliga världen? Jag är ganska säker på nej. Kommer djupt övermänsklig AI på lång sikt att bli en grej? Ja, men inte en "fom""

En annan framstående figur, Yann Le Cun, höjde också sin röst och hävdade att det är "helt omöjligt"för mänskligheten att uppleva ett övertagande av AI." Låt oss hoppas det.

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

Tidsstämpel:

Mer från Avkryptera