Få AI til å tåle tidens tann

Få AI til å tåle tidens tann

Å få AI til å tåle tidens prøve PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Mening Alle bekymringene og frykten om AI koker ned til én. Hvordan vet vi hvor godt det fungerer?

Den typen benchmark som IT vanligvis bekymrer seg for er ikke uten betydning. Hvor raskt læres et bestemt datasett, hvor raskt spørsmål kan behandles, hvilke ressurser kreves og hvordan det hele skaleres? Hvis du lager et AI-system som en del av virksomheten din, bør du få disse tingene riktig, eller i det minste forstå grensene deres.

De spiller ingen rolle ellers, selv om du kan være sikker på at markedsføring og eksperter vil være uenige. Det faktum at det ikke spiller noen rolle er en god ting: benchmarks blir for ofte mål som forvrenger funksjonen, og de bør holdes fast i kennelene sine.

Det viktigste referansepunktet for AI er hvor sannferdig den er, eller, mer nyttig, hvor lite den blir feilpresentert av de som selger eller bruker den. Som Pontius Pilatus ble sagt å ha sagt for 2,000 år siden, hva er sannhet? Det er ingen målestokk. Til tross for de mellomliggende årtusener og uendelige påstander om å ha fikset dette, er det fortsatt ikke det. Den mest ekstreme av løgnere kan kommandere støtte fra nasjoner midt i det som burde være en fornuftens gullalder. Hvis ingen er forberedt eller i stand til å stoppe dem, hvilken sjanse har vi til å holde AI på englenes side?

Den ene mekanismen som har en sjanse er den merkelige syntesen av reguleringsorganer og rettssystemer som eksisterer – i teorien – utenfor politikken, men innenfor demokratisk kontroll. Regulatorer setter standarder, domstolene fungerer som bakstopp for disse maktene og dommerne av tvister.

Hvis du ser på hvor debatten handler om kunstig intelligens i rettssystemet, vil du finne mange nyanser. Som alle yrker består juss av mennesker som ønsker å beholde jobbene sine. De vil også gjøre de jobbene bedre. Dette betyr å redusere gapet, som de er svært klar over, mellom de som trenger rettferdighet og de som har tilgang til den. Utsiktene til AI her blir sett på som potensielt uhyre fordelaktige - forutsatt at det er gjennomsiktig, tilgjengelig, pålitelig og appellerende.

Dette gjelder selvfølgelig for AI andre steder, og ettersom advokatstanden har brukt mer tid på å bekymre seg etter sannheten i menneskelige anliggender enn noen andre, bør vi alle holde et øye med hva de mener. Det hadde de tross alt kode lenge før COBOL.

Som tar oss til regulatorene. Det burde være at jo mer teknisk og målbart feltet som reguleres, jo lettere er regulatorens jobb. Hvis du administrerer radiospekteret eller jernbanen, viser det seg raskt noe som går galt i tallene. Finansielle regulatorer, som opererer i en miasma av kapitaløkonomi og bedriftens feilretning, går gjennom en syklus av å bli svekket i sterk veksts navn til alt faller fra hverandre og en storslått tilbakestilling følger. Ryn og gjenta. Likevel kan svært tekniske regulatorer gå galt, som med FAA og Boeings 737 MAX. Reguleringsfangst av deres bransjer eller politikere er en konstant trussel. Og noen ganger kan vi bare ikke si det – GDPR har vært med oss ​​i fem år. Fungerer det?

Det er dessverre umulig å lage et marked som er regulert på to forskjellige måter og sammenligne resultatene. EU har mange år med GDPR: Det er ingen EU fra samme periode som ikke har gjort det. Kontrollgrupper, et av grunnlagene for empiri, er ikke lett å finne i regulatorer, og ikke mye mer i rettssystemet. Jurysystemet tester en sak gjennom tilstedeværelsen av flere uavhengige hjerner, mens den siste bakstopperen til høyesterett ser de vanskeligste sakene også presentert for et panel. Det er ikke noe parallelt, annerledes system. Hvordan kan det være?

Det er her naturen til AI kan antyde et regulatorisk fotfeste i ansvarlig integrering av maskiner med menneskehetens anliggender. Det er ikke bare én kunstig intelligens, det er mengder av modeller, av maskinvareplattformer, av tilnærminger, av eksperimenter. De er maskiner, og vi kan lage så mange vi trenger. Den ultimate sannheten er til syvende og sist ukjent, men en brukbar konsensus er oppnåelig – eller til og med et brukbart flertall.

Hvis du har en kritisk oppgave der en AI er involvert og det ikke er mulig å oppdage en blooper umiddelbart, kan du få en annen parallelt. Og en til. Sammenlign svar. Hvis du ikke finner nok uavhengig AI for et bestemt problem, ikke bruk AI før du kan.

Redundans er et kraftig våpen mot feil. Apollo kom til månen ikke fordi systemene var perfekte, men fordi de hadde redundans på plass i forventningen om feil. Den sovjetiske bemannede måneinnsatsen unngikk det til fordel for det som så ut som hensiktsmessighet, men endte i vanære.

Vi trenger ikke å stole på AI, som er like bra – hva er sannhet? Den vet ikke mer enn vi gjør. Men vi har skapt et brukbart samfunn rundt systemer som stoler på og verifiserer, og vi ser at dette fungerer i dommere så vel som jetfly. Filosofien, potensialet og fallgruvene til våre stadig mer gjennomtenkte følgesvenner vil løse seg over tid, vi bør bare sette oddsen i vår favør mens vi kan. Uansett hva vi gjør, vil vi ikke være i stand til å vaske hendene våre av det. ®

Tidstempel:

Mer fra Registeret