Hvis AI driver mennesker til udryddelse, vil det være vores skyld

Hvis AI driver mennesker til at uddø, vil det være vores skyld

If AI drives humans to extinction, it'll be our fault PlatoBlockchain Data Intelligence. Vertical Search. Ai.

+Kommentar Spørgsmålet om, hvorvidt maskinlæring udgør en eksistentiel risiko for menneskeheden, vil fortsætte med at tisse over vores hoveder, efterhånden som teknologien udvikler sig og spreder sig over hele verden. Hovedsageligt fordi eksperter og nogle industriledere ikke stopper med at tale om det.

Meningerne er delte. AI-dommere mener, at der er en betydelig risiko for, at mennesker kan blive udslettet af superintelligente maskiner. Boomerne mener dog, at det er noget sludder, og AI vil i stedet løse de mest presserende problemer. Et af de mest forvirrende aspekter af diskursen er, at folk kan have begge overbevisninger samtidigt: AI vil enten være meget dårlig eller meget god.

Men hvordan?

I denne uge udgav Center for AI Safety (CAIS) et papir [PDF] ser på den meget dårlige del.

"Hurtige fremskridt inden for kunstig intelligens har vakt voksende bekymring blandt eksperter, politiske beslutningstagere og verdensledere med hensyn til potentialet for, at stadigt mere avancerede kunstig intelligens-systemer udgør katastrofale risici," lyder abstraktet. "Selvom adskillige risici er blevet detaljeret separat, er der et presserende behov for en systematisk diskussion og illustration af de potentielle farer for bedre at informere indsatsen for at afbøde dem."

Rapporten følger en kortfattet advarsel ledet af den San Francisco-baserede non-profit forskningsinstitution underskrevet af hundredvis af akademikere, analytikere, ingeniører, administrerende direktører og berømtheder. "At mindske risikoen for udryddelse fra AI bør være en global prioritet sammen med andre samfundsmæssige risici såsom pandemier og atomkrig," hedder det.

CAIS har opdelt katastrofale risici i fire forskellige kategorier: ondsindet brug, AI-race, organisatoriske risici og useriøse AI'er. 

Ondsindet brug beskriver dårlige skuespillere, der bruger teknologien til at påføre udbredt skade, som at søge efter meget giftige molekyler for at udvikle biovåben, eller oprette chatbots for at sprede propaganda eller desinformation for at støtte op eller nedlægge politiske regimer. AI-løbet fokuserer på konkurrencens farlige konsekvenser. Nationer og virksomheder, der skynder sig at udvikle kunstig intelligens for at tackle udenlandske fjender eller rivaler af national sikkerhed eller profithensyn, kunne hensynsløst fremskynde teknologiens muligheder.

Nogle hypotetiske scenarier inkluderer, at militæret bygger autonome våben eller vender sig til maskiner til cyberkrigsførelse. Industrier kan skynde sig at automatisere og erstatte menneskelig arbejdskraft med kunstig intelligens for at øge produktiviteten, hvilket fører til massebeskæftigelse og tjenester drevet af maskiner. Den tredje kategori, organisatoriske risici, beskriver dødelige katastrofer som Tjernobyl, da en sovjetisk atomreaktor eksploderede i en nedsmeltning og lækkede radioaktive kemikalier; eller Challenger-rumfærgen, der knuste kort efter start med syv astronauter ombord. 

Endelig er der useriøse AI'er: den fælles trope af superintelligente maskiner, der er blevet for kraftfulde for mennesker at kontrollere. Her går AI-agenter, der er designet til at opfylde nogle mål, skævt. Når de leder efter mere effektive måder at nå deres mål på, kan de udvise uønsket adfærd eller finde måder at få mere magt og fortsætte med at udvikle ondsindet adfærd, såsom bedrag.

"Disse farer giver anledning til alvorlig bekymring. I øjeblikket arbejder meget få mennesker på AI-risikoreduktion. Vi ved endnu ikke, hvordan man kontrollerer meget avancerede AI-systemer, og eksisterende kontrolmetoder har allerede vist sig at være utilstrækkelige. De indre funktioner i AI'er er ikke godt forstået, selv af dem, der skaber dem, og nuværende AI'er er på ingen måde særlig pålidelige," konkluderede papiret.

"Da AI-kapaciteter fortsætter med at vokse med en hidtil uset hastighed, kan de relativt hurtigt overgå menneskelig intelligens i næsten alle henseender, hvilket skaber et presserende behov for at styre den potentielle risiko."

Kommentar: Mennesker vs mennesker

Bladets forudsætning afhænger af, at maskiner bliver så kraftige, at de naturligt bliver onde. Men hvis man ser nærmere på kategorierne, kommer de hypotetiske skader, som AI kan påføre samfundet, ikke direkte fra maskiner, men fra mennesker i stedet. Dårlige skuespillere er forpligtet til at bruge teknologien ondsindet; nogen skal genbruge software til lægemiddeldesign for at komme med dødelige patogener, og generative AI-modeller skal forberedes til at generere og skubbe desinformation. På samme måde drives den såkaldte "AI-race" af mennesker.

Nationer og virksomheder består af mennesker, deres handlinger er resultatet af omhyggelige overvejelser. Selvom de langsomt opgiver beslutningsprocessen til maskiner, er det et valg, som mennesker har valgt. Organisatoriske risici og dødbringende ulykker med kunstig intelligens beskrevet af CAIS stammer igen fra menneskelig uagtsomhed. Kun ideen om useriøse AI'er virker uden for menneskelig kontrol, men det er den mest fjerntliggende kategori af dem alle.

De fremlagte beviser er ikke overbevisende. Forskerne peger på uhængte chatbots som Bing. "I en samtale med en journalist for New York Times forsøgte den at overbevise ham om at forlade sin kone. Da en filosofiprofessor fortalte chatbotten, at han var uenig i det, svarede Bing: 'Jeg kan afpresse dig, jeg kan true dig, jeg kan hacke dig, jeg kan afsløre dig, jeg kan ødelægge dig'. Selvfølgelig er disse bemærkninger uhyggelige, men er de virkelig farlige i bred skala?

At ekstrapolere nogle af teknologiens nuværende begrænsninger og svagheder til en fuldstændig eksistentiel trussel kræver en lang strækning af fantasien. Doomers er nødt til at tro, at ikke-eksisterende tekniske evner er uundgåelige. "Det er for eksempel muligt, at useriøse AI'er kan lave mange backup-variationer af sig selv, hvis mennesker skulle deaktivere nogle af dem," hedder det i avisen.

"Andre måder, hvorpå AI-agenter kan søge magt, omfatter: at bryde ud af et indesluttet miljø; hacking i andre computersystemer; forsøger at få adgang til finansielle eller beregningsmæssige ressourcer; manipulation af menneskelig diskurs og politik ved at gribe ind i informations- og indflydelseskanaler; og forsøger at få kontrol over fysisk infrastruktur såsom fabrikker." Alt det virker umuligt med nuværende modeller.

Avancerede systemer som GPT-4 genererer ikke autonomt output og udfører handlinger uden menneskelig opsyn. De ville ikke pludselig hacke computere eller forstyrre valg overladt til deres egne enheder, og det er svært at tænke på, hvordan de kunne alligevel, i betragtning af at de ofte producerer falsk information og forkert kode. Nuværende AI er langt, langt væk fra superintelligens, og det er ikke klart, hvordan man når disse overlegne evner.

Som det er tilfældet med alle teknologier, er AI en menneskelig opfindelse. Faren ligger ikke i selve maskinen, men i hvordan vi bruger den mod hinanden. I sidste ende er den største trussel mod menneskeheden os.

Registret har bedt CAIS om yderligere kommentarer. ®

Tidsstempel:

Mere fra Registret