Tekniske ledere som fremhever risikoen ved AI og det haster med robust AI-regulering

Tekniske ledere som fremhever risikoen ved AI og det haster med robust AI-regulering

Tekniske ledere som fremhever risikoen ved AI og det haster med robust AI-regulering
AI-vekst og fremskritt har vært eksponentiell de siste årene. Rapporterer Statista at innen 2024 vil det globale AI-markedet generere en svimlende inntekt på rundt 3000 milliarder dollar, sammenlignet med 126 milliarder dollar i 2015. Imidlertid advarer teknologiledere oss nå om de ulike risikoene ved AI.
Spesielt den siste bølgen av generativ AI modeller som ChatGPT har introdusert nye muligheter i ulike datasensitive sektorer, som helsevesen, utdanning, finansiere, etc. Disse AI-støttede utviklingene er sårbare på grunn av mange AI-mangler som ondsinnede agenter kan avsløre.
La oss diskutere hva AI-eksperter sier om den siste utviklingen og fremheve de potensielle risikoene ved AI. Vi vil også kort komme inn på hvordan disse risikoene kan håndteres.

Tekniske ledere og deres bekymringer knyttet til risikoen ved AI

Geoffrey Hinton

Geoffrey Hinton – en berømt AI-teknologileder (og gudfar for dette feltet), som nylig sluttet i Google, har ga uttrykk for sine bekymringer om rask utvikling innen AI og dens potensielle farer. Hinton mener at AI-chatbots kan bli "ganske skumle" hvis de overgår menneskelig intelligens.
Hinton sier:
"Akkurat nå, det vi ser er ting som GPT-4 formørker en person i mengden generell kunnskap den har, og den formørker dem langt på vei. Når det gjelder resonnement, er det ikke like bra, men det gjør allerede enkle resonnementer. Og gitt fremdriftshastigheten forventer vi at ting blir bedre ganske raskt. Så det må vi bekymre oss for."
Dessuten mener han at «dårlige skuespillere» kan bruke AI til «dårlige ting», for eksempel å la roboter ha sine delmål. Til tross for bekymringene sine, mener Hinton at AI kan gi kortsiktige fordeler, men vi bør også investere tungt i AI-sikkerhet og kontroll.

Elon Musk

Elon Musks engasjement i AI begynte med hans tidlige investering i DeepMind i 2010, til medstiftelse OpenAI og inkorporerer AI i Teslas autonome kjøretøy.
Selv om han er entusiastisk for AI, tar han ofte opp bekymringer om risikoen ved AI. Musk sier at kraftige AI-systemer kan være farligere for sivilisasjonen enn atomvåpen. I et intervju kl Fox News i april 2023 sa han:
«AI er farligere enn for eksempel feilstyrt flydesign eller produksjonsvedlikehold eller dårlig bilproduksjon. I den forstand at den har potensialet - men liten kan man se på den sannsynligheten - men det er ikke-triviellt og har potensialet til ødeleggelse av sivilisasjonen."
Dessuten støtter Musk myndighetenes forskrifter om AI for å sikre sikkerhet mot potensielle risikoer, selv om "det ikke er så gøy."

Sett gigantiske AI-eksperimenter på pause: Et åpent brev støttet av 1000-vis av AI-eksperter

Future of Life Institute publiserte et åpent brev 22. mars 2023. Brevet krever en midlertidig stans på seks måneder AI-systemutvikling mer avansert enn GPT-4. Forfatterne uttrykker sine bekymringer om tempoet som AI-systemer utvikles med, utgjør alvorlige sosioøkonomiske utfordringer.
I tillegg heter det i brevet at AI-utviklere bør samarbeide med beslutningstakere for å dokumentere AI-styringssystemer. Fra juni 2023 har brevet blitt signert av mer enn 31,000 XNUMX AI-utviklere, eksperter og teknologiledere. Viktige underskrivere inkluderer Elon Musk, Steve Wozniak (medgründer av Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (Turing-prisvinner) og mange flere.

Motargumenter om å stoppe AI-utvikling

To fremtredende AI-ledere, Andrew Ng og Yann LeCun, har motsatt seg det seks måneder lange forbudet mot å utvikle avanserte AI-systemer og betraktet pausen som en dårlig idé.
Ng sier at selv om AI har noen risikoer, for eksempel skjevhet, konsentrasjon av makt, osv. Men verdien som skapes av AI på felt som utdanning, helsevesen og responsiv coaching er enorm.
Yann LeCun sier at forskning og utvikling ikke bør stoppes, selv om AI-produktene som når ut til sluttbrukeren kan reguleres.

Hva er de potensielle farene og umiddelbare risikoene ved AI?

1. Job Displacement

AI-eksperter mener at intelligente AI-systemer kan erstatte kognitive og kreative oppgaver. Investeringsbanken Goldman Sachs anslår at ca 300 millioner jobber vil bli automatisert av generativ AI.
Derfor bør det være regler for utvikling av kunstig intelligens slik at det ikke forårsaker en alvorlig økonomisk nedgang. Det bør være utdanningsprogrammer for oppkvalifisering og omkompetanse av ansatte for å håndtere denne utfordringen.

2. Forutinntatte AI-systemer

skjevheter utbredt blant mennesker om kjønn, rase eller farge kan utilsiktet gjennomsyre dataene som brukes til å trene AI-systemer, og deretter gjøre AI-systemer partiske.
For eksempel, i forbindelse med jobbrekruttering, kan et partisk AI-system forkaste CV-er fra personer med spesifikk etnisk bakgrunn, og skape diskriminering på arbeidsmarkedet. I rettshåndhevelse, kan partisk prediktiv politiarbeid i uforholdsmessig grad rette seg mot bestemte nabolag eller demografiske grupper.
Derfor er det viktig å ha en omfattende datastrategi som tar for seg AI-risikoer, spesielt skjevheter. AI-systemer må evalueres og revideres ofte for å holde dem rettferdige.

3. Sikkerhetskritiske AI-applikasjoner

Autonome kjøretøy, medisinsk diagnose og behandling, luftfartssystemer, kontroll av kjernekraftverk, etc., er alle eksempler på sikkerhetskritiske AI-applikasjoner. Disse AI-systemene bør utvikles med forsiktighet fordi selv mindre feil kan ha alvorlige konsekvenser for menneskers liv eller miljøet.
For eksempel kalles feilen i AI-programvaren Manøvreringsegenskaper Augmentation System (MCAS) tilskrives delvis styrten til de to Boeing 737 MAX, først i oktober 2018 og deretter i mars 2019. Dessverre tok de to krasjene livet av 346 mennesker.

Hvordan kan vi overvinne risikoen ved AI-systemer? – Ansvarlig AI-utvikling og overholdelse av forskrifter

Ansvarlig AI (RAI) betyr å utvikle og distribuere rettferdige, ansvarlige, gjennomsiktige og sikre AI-systemer som sikrer personvern og følger juridiske forskrifter og samfunnsnormer. Implementering av RAI kan være komplekst gitt AI-systemers brede og raske utvikling.
Imidlertid har store teknologiselskaper utviklet RAI-rammeverk, for eksempel:
  1. Microsofts ansvarlige AI
  2. Googles AI -prinsipper
  3. IBMs Trusted AI
AI-laboratorier over hele verden kan ta inspirasjon fra disse prinsippene eller utvikle sine egne ansvarlige AI-rammeverk for å lage pålitelige AI-systemer.

AI forskriftsoverholdelse

Siden data er en integrert komponent av AI-systemer, må AI-baserte organisasjoner og laboratorier overholde følgende forskrifter for å sikre datasikkerhet, personvern og sikkerhet.
  1. GDPR (generell databeskyttelsesforordning) – et databeskyttelsesrammeverk fra EU.
  2. CCPA (California Consumer Privacy Act) – en statutt i California for personvernrettigheter og forbrukerbeskyttelse.
  3. HIPAA (Health Insurance Portability and Accountability Act) – en amerikansk lovgivning som sikrer pasienters medisinske data.
  4. EUs AI-lovog Etiske retningslinjer for pålitelig AI – en EU-kommisjonens AI-forordning.
Det er forskjellige regionale og lokale lover vedtatt av forskjellige land for å beskytte innbyggerne. Organisasjoner som ikke klarer å sikre overholdelse av regelverk rundt data kan resultere i alvorlige straffer. For eksempel har GDPR satt en bot på € 20 millioner eller 4 % av årsresultatet for alvorlige brudd som ulovlig databehandling, ubevist datasamtykke, brudd på registrertes rettigheter eller ubeskyttet dataoverføring til en internasjonal enhet.

AI-utvikling og regelverk – nåtid og fremtid

For hver måned som går, når AI-fremskritt enestående høyder. Men de medfølgende AI-forskriftene og styringsrammeverket henger etter. De må være mer robuste og spesifikke.
Tekniske ledere og AI-utviklere har ringt alarmer om risikoen ved AI hvis den ikke er tilstrekkelig regulert. Forskning og utvikling innen AI kan gi ytterligere verdi i mange sektorer, men det er klart at nøye regulering nå er avgjørende.

Link: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Kilde: https://www.unite.ai

Tekniske ledere som fremhever risikoen ved AI og det haster med robust AI-regulering PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Tidstempel:

Mer fra Fintech-nyheter