Hvordan DARPA ønsker å revurdere grunnleggende AI for å inkludere tillit

Hvordan DARPA ønsker å revurdere grunnleggende AI for å inkludere tillit

Hvordan DARPA ønsker å revurdere grunnleggende AI for å inkludere trust PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Kommentar Ville du stole på livet ditt til en kunstig intelligens?

Den nåværende tilstanden til AI er imponerende, men å se den som på grensen til generelt intelligent er en overdrivelse. Hvis du vil ha kontroll på hvor godt AI-boomen går, bare svar på dette spørsmålet: Stoler du på AI?

Googles Bard og Microsofts ChatGPT-drevne Bing store språkmodeller både laget beinhodede feil under lanseringspresentasjonene som kunne vært unngått med et raskt nettsøk. LLM-er har også blitt oppdaget tar fakta feil og skyve ut uriktige sitater.

Det er én ting når disse AI-ene bare er ansvarlige for, for eksempel, å underholde Bing- eller Bard-brukere, forteller DARPAs Matt Turek, assisterende direktør for Information Innovation Office. Det er en helt annen ting når liv står på spill, og det er grunnen til at Tureks byrå har lansert et initiativ kalt AI Forward for å prøve å svare på spørsmålet om hva det vil si å bygge et AI-system vi kan stole på.

Tillit er …?

I et intervju med Registeret, Turek sa at han liker å tenke på å bygge pålitelig AI med en sivilingeniør-metafor som også innebærer å sette mye tillit til teknologi: Bygge broer.

"Vi bygger ikke broer ved prøving og feiling lenger," sier Turek. "Vi forstår den grunnleggende fysikken, den grunnleggende materialvitenskapen, systemteknikken for å si, jeg trenger å kunne strekke meg over denne avstanden og må bære denne typen vekt," legger han til.

Væpnet med den kunnskapen, sier Turek, hadde ingeniørsektoren vært i stand til å utvikle standarder som gjør det enkelt og forutsigbart å bygge broer, men det har vi ikke med AI akkurat nå. Faktisk er vi på et enda verre sted enn å bare ikke ha standarder: AI-modellene vi bygger overrasker oss noen ganger, og det er ille, sier Turek. 

«Vi forstår ikke modellene helt. Vi forstår ikke hva de gjør bra, vi forstår ikke hjørnesakene, feilmodusene … det som kan føre til er at ting går galt med en hastighet og en skala vi ikke har sett før.» 

Reg leserne trenger ikke å forestille seg apokalyptiske scenarier der en kunstig generell intelligens (AGI) begynner å drepe mennesker og føre krig for å få frem Tureks poeng. "Vi trenger ikke AGI for at ting skal gå vesentlig galt," sier Turek. Han siterer hurtige markedskrasj, slik fallet i det britiske pundet i 2016 tilskrives dårlig algoritmisk beslutningstaking, som et eksempel. 

Så er det programvare som Teslas autopilot, tilsynelatende en AI designet for å kjøre en bil som angivelig har vært knyttet til 70 prosent av ulykker med automatisert sjåførassistentteknologi. Når slike ulykker skjer, klandrer ikke Tesla AI, forteller Turek, den sier at sjåførene er ansvarlige for hva autopiloten gjør. 

Med det resonnementet er det rimelig å si at selv Tesla ikke stoler på sin egen AI. 

Hvordan DARPA ønsker å flytte AI ... Fremover

"Hastigheten som storskala programvaresystemer kan operere med kan skape utfordringer for menneskelig tilsyn," sier Turek, og det er grunnen til at DARPA startet sitt siste AI-initiativ, AI Forward, tidligere i år.

I en presentasjon i februar forklarte Tureks sjef, Dr Kathleen Fisher, hva DARPA ønsker å oppnå med AI Forward, nemlig å bygge den forståelsesbasen for AI-utvikling som ligner på det ingeniører har utviklet med sine egne sett med standarder.

Fisher forklarte i sin presentasjon at DARPA ser på AI-tillit som å være integrerende, og at enhver AI som er verdt å stole på bør være i stand til å gjøre tre ting:

  • Virker kompetent, noe vi helt sikkert har ikke funnet ut av det enda,
  • Å samhandle på riktig måte med mennesker, inkludert å kommunisere hvorfor den gjør som den gjør (se forrige punkt for hvor bra det går),
  • Å oppføre seg etisk og moralsk, noe Fisher sier vil inkludere å kunne avgjøre om instruksjoner er etiske eller ikke, og å reagere deretter. 

Å artikulere hva som definerer pålitelig AI er én ting. Å komme dit er ganske mye mer arbeid. For det formål sa DARPA at de planlegger å investere sin energi, tid og penger i tre områder: Bygge grunnleggende teorier, artikulere riktig AI-teknikk og utvikle standarder for menneske-AI-teaming og interaksjoner. 

AI Forward, som Turek beskriver som mindre av et program og mer et samfunnsoppsøkende initiativ, starter med et par sommerverksteder i juni og slutten av juli for å bringe folk sammen fra offentlig og privat sektor for å hjelpe til med å konkretisere disse tre AI-investeringene områder. 

DARPA, sier Turek, har en unik evne "å bringe [sammen] et bredt spekter av forskere på tvers av flere samfunn, ta et helhetlig blikk på problemet, identifisere ... overbevisende veier fremover, og deretter følge det opp med investeringer som DARPA mener kan føre til mot transformasjonsteknologier."

For alle som håper å kaste hatten i ringen for å delta i de to første AI Forward-verkstedene – beklager – de er allerede fulle. Turek avslørte ikke noen detaljer om hvem som skulle være der, men sa bare at flere hundre deltakere forventes med "et mangfold av teknisk bakgrunn [og] perspektiver."

Hvordan ser pålitelig forsvars-AI ut?

Hvis og når DARPA klarer å utvikle sin modell for AI-tillit, hvordan vil den bruke den teknologien? 

Cybersikkerhetsapplikasjoner er åpenbare, sier Turek, ettersom man kan stole på en pålitelig AI for å ta de riktige avgjørelsene i en skala og hastighet mennesker ikke kunne handle på. Fra siden med store språkmodeller er det bygnings-AI som kan stole på for å håndtere klassifisert informasjon på riktig måte, eller fordøye og oppsummere rapporter på en nøyaktig måte "hvis vi kan fjerne disse hallusinasjonene," legger Turek til.

Og så er det slagmarken. Langt fra bare å være et verktøy som brukes til å skade, kan AI gjøres om til livreddende applikasjoner gjennom forskningsinitiativer som I øyeblikket, et forskningsprosjekt Turek leder for å støtte rask beslutningstaking i vanskelige situasjoner. 

Målet med In The Moment er å identifisere "nøkkelattributter som ligger til grunn for pålitelige menneskelige beslutninger i dynamiske omgivelser og beregningsmessig representere disse attributtene," som DARPA beskriver det på prosjektets side. 

"[In The Moment] er egentlig et grunnleggende forskningsprogram om hvordan du modellerer og kvantifiserer tillit og hvordan du bygger de egenskapene som fører til tillit og inn i systemer," sier Turek.

AI bevæpnet med disse egenskapene kan brukes til å ta medisinske triage-avgjørelser på slagmarken eller i katastrofescenarier.

DARPA vil at hvitebøker skal følge begge AI Forward-møtene denne sommeren, men derfra er det et spørsmål om å komme forbi definisjonsstadiet og mot aktualisering, noe som definitivt kan ta en stund. 

"Det vil være investeringer fra DARPA som kommer ut av møtene," forteller Turek. "Antallet eller størrelsen på disse investeringene kommer til å avhenge av hva vi hører," legger han til. ®

Tidstempel:

Mer fra Registeret