Tidligere OpenAI-forsker: Der er 50 % chance for, at AI ender i 'Catastrophe'

Tidligere OpenAI-forsker: Der er 50 % chance for, at AI ender i 'Catastrophe'

Former OpenAI Researcher: There’s a 50% Chance AI Ends in 'Catastrophe' PlatoBlockchain Data Intelligence. Vertical Search. Ai.

En tidligere nøgleforsker ved OpenAI mener, at der er en anstændig chance for, at kunstig intelligens vil tage kontrol over menneskeheden og ødelægge den.

"Jeg tror måske, der er noget i retning af en 10-20% chance for AI-overtagelse, [med] mange [eller] de fleste mennesker døde," Paul Christiano, der drev sprogmodeltilpasningsteamet på OpenAI, sagde på Bankløs podcast. "Jeg tager det meget seriøst."

Christiano, der nu leder Alignment Research Center, en non-profit, der har til formål at tilpasse AI'er og maskinlæringssystemer med "menneskelige interesser", sagde, at han er særligt bekymret over, hvad der sker, når AI'er når et menneskes logiske og kreative kapacitet. "Samlet set taler vi måske om en 50/50 chance for katastrofe kort efter, at vi har systemer på menneskeligt niveau," sagde han.

Christiano er i godt selskab. For nylig snesevis af videnskabsmænd rundt om i verden underskrevet et online brev opfordrer til, at OpenAI og andre virksomheder, der ræser om at bygge hurtigere, smartere AI'er, trykker på pauseknappen for udvikling. Store parykker fra Bill Gates til Elon Musk har udtrykt bekymring for, at kunstig intelligens repræsenterer en åbenlys, eksistentiel fare for mennesker, uden at være kontrolleret.

Vær ikke ond

Hvorfor skulle AI blive ond? Grundlæggende af samme grund som en person gør: træning og livserfaring.

Som en baby, AI er trænet ved at modtage bjerge af data uden rigtig at vide, hvad de skal gøre med det. Den lærer ved at forsøge at opnå bestemte mål med tilfældige handlinger og nulstilles på "korrekte" resultater, som defineret af træning.

Hidtil har maskinlæring, ved at fordybe sig i data indsamlet på internettet, gjort det muligt for AI'er at tage store spring i at sammensætte velstrukturerede, sammenhængende svar på menneskelige forespørgsler. Samtidig bliver den underliggende computerbehandling, der driver maskinlæring, hurtigere, bedre og mere specialiseret. Nogle videnskabsmænd mener, at inden for et årti vil den processorkraft, kombineret med kunstig intelligens, tillade disse maskiner at blive sansende, ligesom mennesker, og have en følelse af sig selv.

Det er når tingene bliver behårede. Og det er derfor, mange forskere hævder, at vi er nødt til at finde ud af, hvordan vi pålægger autoværn nu, snarere end senere. Så længe AI-adfærd overvåges, er det kan styres.

Men hvis mønten lander på den anden side, siger selv OpenAIs medstifter, at tingene kan blive meget, meget dårligt.

Foomsday?

Dette emne har været på bordet i årevis. En af de mest berømte debatter om emnet fandt sted for 11 år siden mellem AI-forsker Eliezer Yudkowsky og økonomen Robin Hansen. De to diskuterede muligheden for at nå "foom”- som tilsyneladende står for "Fast Onset of Overwhelming Mastery" – det punkt, hvor AI bliver eksponentielt klogere end mennesker og i stand til at forbedre sig selv. (Afledningen af ​​udtrykket "foom" er diskutabel.)

"Eliezer og hans medhjælpere tror, ​​at det er uundgåeligt, at AI'er vil blive "fom" uden varsel, hvilket betyder, at en dag bygger du en AGI [kunstig generel intelligens] og timer eller dage senere har tingen rekursivt selvforbedret sig til gudlignende intelligens og æder derefter verden . Er dette realistisk?” Perry Metzger, en datalog aktiv i AI-samfundet, tweetede for nylig.

Metzger hævdede, at selv når computersystemer når et niveau af menneskelig intelligens, er der stadig masser af tid til at afværge eventuelle dårlige resultater. "Er 'foom' logisk muligt? Måske. Jeg er ikke overbevist,” sagde han. "Er det muligt i den virkelige verden? Jeg er ret sikker på nej. Vil langsigtet dybt overmenneskelig AI være en ting? Ja, men ikke et 'foom'"

En anden fremtrædende figur, Yann Le Cun, hævede også sin stemme og hævdede, at det er "fuldstændig umuligt", for at menneskeheden skal opleve en AI-overtagelse." Lad os håbe det.

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

Tidsstempel:

Mere fra Dekryptér