Tehnični voditelji poudarjajo tveganja umetne inteligence in nujnost stroge regulacije umetne inteligence

Tehnični voditelji poudarjajo tveganja umetne inteligence in nujnost stroge regulacije umetne inteligence

Tehnični voditelji poudarjajo tveganja umetne inteligence in nujnost stroge regulacije umetne inteligence
Rast in napredek umetne inteligence sta bila v zadnjih nekaj letih eksponentna. Poroča Statista da bo do leta 2024 svetovni trg umetne inteligence ustvaril osupljive prihodke v višini okoli 3000 milijard dolarjev v primerjavi s 126 milijardami dolarjev v letu 2015. Vendar nas tehnološki voditelji zdaj opozarjajo na različna tveganja umetne inteligence.
Še posebej nedavni val generativni AI modeli, kot je ChatGPT, so uvedli nove zmogljivosti v različnih podatkovno občutljivih sektorjih, kot so zdravstvo, izobraževanje, financiranje, itd. Ti dogodki, podprti z umetno inteligenco, so ranljivi zaradi številnih pomanjkljivosti umetne inteligence, ki jih zlonamerni agenti lahko razkrijejo.
Pogovorimo se o tem, kaj strokovnjaki za umetno inteligenco pravijo o nedavnem razvoju dogodkov in poudarimo morebitna tveganja umetne inteligence. Na kratko se bomo dotaknili tudi načina obvladovanja teh tveganj.

Tehnični voditelji in njihovi pomisleki v zvezi s tveganji umetne inteligence

Geoffrey Hinton

Geoffrey Hinton – slavni tehnološki vodja AI (in boter tega področja), ki je pred kratkim zapustil Google, je izrazil svoje pomisleke o hitrem razvoju umetne inteligence in njenih potencialnih nevarnostih. Hinton verjame, da lahko klepetalni roboti z umetno inteligenco postanejo "precej strašljivi", če presežejo človeško inteligenco.
Hinton pravi:
»Trenutno opažamo, da stvari, kot je GPT-4, zasenčijo osebo v količini splošnega znanja, ki ga ima, in jo zasenči daleč. Kar zadeva sklepanje, ni tako dober, vendar že izvaja preprosto sklepanje. In glede na stopnjo napredka pričakujemo, da se bodo stvari precej hitro izboljšale. Zato nas mora to skrbeti.«
Poleg tega verjame, da lahko "slabi igralci" uporabljajo AI za "slabe stvari", kot je dovoljenje robotom, da imajo svoje podcilje. Kljub pomislekom Hinton verjame, da lahko umetna inteligenca prinese kratkoročne koristi, vendar bi morali tudi veliko vlagati v varnost in nadzor umetne inteligence.

Elon Musk

Udeležba Elona Muska pri umetni inteligenci se je začela z njegovim zgodnjim vlaganjem v Deepmind leta 2010 do soustanoviteljstva OpenAI in vključevanje umetne inteligence v Teslina avtonomna vozila.
Čeprav je navdušen nad umetno inteligenco, pogosto izraža pomisleke glede tveganj umetne inteligence. Musk pravi, da so zmogljivi sistemi umetne inteligence lahko bolj nevarni za civilizacijo kot jedrsko orožje. V intervjuju pri Fox News aprila 2023 je rekel:
»Umetna inteligenca je bolj nevarna kot na primer napačno vodeno načrtovanje ali vzdrževanje proizvodnje letal ali slaba proizvodnja avtomobilov. V smislu, da ima potencial – vendar se lahko ta verjetnost zdi majhna – vendar ni trivialen in ima potencial uničenja civilizacije.«
Poleg tega Musk podpira vladne predpise o AI, da se zagotovi varnost pred morebitnimi tveganji, čeprav "ni tako zabavno."

Zaustavite velikanske poskuse umetne inteligence: Odprto pismo, ki ga podpira 1000 strokovnjakov za umetno inteligenco

Zavod Future of Life je objavil odprto pismo dne 22. marca 2023. Pismo zahteva začasno šestmesečno prekinitev Razvoj sistemov AI naprednejši kot GPT-4. Avtorji izražajo zaskrbljenost glede hitrosti, s katero se sistemi umetne inteligence razvijajo, predstavlja resne socialno-ekonomske izzive.
Poleg tega pismo navaja, da bi morali razvijalci umetne inteligence sodelovati z oblikovalci politik pri dokumentiranju sistemov upravljanja umetne inteligence. Od junija 2023 je pismo podpisalo več kot 31,000 razvijalcev AI, strokovnjakov in tehnoloških vodij. Med pomembnimi podpisniki so Elon Musk, Steve Wozniak (soustanovitelj Appla), Emad Mostaque (izvršni direktor Stability AI), Yoshua Bengio (dobitnik Turingove nagrade) in mnogi drugi.

Protiargumenti o ustavitvi razvoja umetne inteligence

Dva vidna voditelja AI, Andrew Ng in Yann LeCun, so nasprotovali šestmesečni prepovedi razvoja naprednih sistemov umetne inteligence in menili, da je premor slaba ideja.
Ng pravi, da čeprav ima umetna inteligenca nekaj tveganj, kot so pristranskost, koncentracija moči itd., je vrednost, ki jo ustvari umetna inteligenca na področjih, kot so izobraževanje, zdravstvo in odzivno inštruiranje, ogromna.
Yann LeCun pravi, da raziskav in razvoja ne bi smeli ustaviti, čeprav je izdelke AI, ki dosežejo končnega uporabnika, mogoče regulirati.

Kakšne so možne nevarnosti in takojšnja tveganja umetne inteligence?

1. Premestitev na delovnem mestu

Strokovnjaki za AI verjamejo, da lahko inteligentni sistemi AI nadomestijo kognitivne in ustvarjalne naloge. Investicijska banka Goldman Sachs ocenjuje, da okoli 300 milijonov delovnih mest bo avtomatiziran z generativnim AI.
Zato bi morali obstajati predpisi o razvoju umetne inteligence, da ne bi povzročil resne gospodarske krize. Za spopadanje s tem izzivom bi morali obstajati izobraževalni programi za izpopolnjevanje in prekvalificiranje zaposlenih.

2. Pristranski sistemi umetne inteligence

Biases med ljudmi prevladujoče informacije o spolu, rasi ali barvi barve lahko nehote prodrejo v podatke, ki se uporabljajo za usposabljanje sistemov AI, zaradi česar so sistemi AI pristranski.
Na primer, v kontekstu zaposlovanja na delovnem mestu lahko pristranski sistem umetne inteligence zavrže življenjepise posameznikov iz določenega etničnega porekla, kar ustvarja diskriminacijo na trgu dela. notri kazenskega pregona, bi lahko pristransko napovedno policijsko delovanje nesorazmerno ciljalo na določene soseske ali demografske skupine.
Zato je nujno imeti celovito podatkovno strategijo, ki obravnava tveganja umetne inteligence, zlasti pristranskost. Sisteme umetne inteligence je treba pogosto ocenjevati in revidirati, da ostanejo pošteni.

3. Varnostno kritične aplikacije AI

Avtonomna vozila, medicinska diagnostika in zdravljenje, letalski sistemi, nadzor jedrskih elektrarn itd. so primeri aplikacij umetne inteligence, ki so kritične za varnost. Te sisteme umetne inteligence je treba razvijati previdno, saj imajo lahko že manjše napake resne posledice za človeško življenje ali okolje.
Na primer, okvara programske opreme AI, imenovane Sistem povečanja manevrskih lastnosti (MCAS) delno pripisujejo strmoglavljenju dveh boeingov 737 MAX, najprej oktobra 2018 in nato marca 2019. Na žalost je v obeh strmoglavljenjih umrlo 346 ljudi.

Kako lahko premagamo tveganja sistemov AI? – Odgovoren razvoj umetne inteligence in skladnost s predpisi

Odgovorna umetna inteligenca (RAI) pomeni razvoj in uvajanje poštenih, odgovornih, preglednih in varnih sistemov umetne inteligence, ki zagotavljajo zasebnost ter sledijo pravnim predpisom in družbenim normam. Izvajanje RAI je lahko zapleteno glede na širok in hiter razvoj sistemov AI.
Vendar so velika tehnološka podjetja razvila okvire RAI, kot so:
  1. Microsoftova odgovorna umetna inteligenca
  2. Googlova načela umetne inteligence
  3. IBM-ov zaupanja vreden AI
Laboratoriji umetne inteligence po vsem svetu se lahko zgledujejo po teh načelih ali razvijejo lastne odgovorne okvire umetne inteligence, da ustvarijo zaupanja vredne sisteme umetne inteligence.

Skladnost s predpisi AI

Ker so podatki sestavni del sistemov AI, morajo organizacije in laboratoriji, ki temeljijo na AI, upoštevati naslednje predpise, da zagotovijo varnost, zasebnost in varnost podatkov.
  1. GDPR (Splošna uredba o varstvu podatkov) – okvir EU za varstvo podatkov.
  2. CCPA (Kalifornijski zakon o zasebnosti potrošnikov) – državni zakon Kalifornije o pravicah do zasebnosti in varstvu potrošnikov.
  3. HIPAA (Zakon o prenosljivosti in odgovornosti zdravstvenega zavarovanja) – ameriška zakonodaja, ki ščiti zdravstvene podatke bolnikov.
  4. Zakon EU o AIin Etične smernice za zaupanja vreden AI – uredba Evropske komisije o AI.
Različne države sprejemajo različne regionalne in lokalne zakone za zaščito svojih državljanov. Organizacije, ki ne zagotovijo skladnosti s predpisi glede podatkov, lahko povzročijo stroge kazni. GDPR je na primer določila globo v višini 20 milijonov evrov ali 4 % letnega dobička za resne kršitve, kot je nezakonita obdelava podatkov, nedokazano soglasje za podatke, kršitev pravic posameznikov, na katere se nanašajo osebni podatki, ali nezaščiten prenos podatkov mednarodnemu subjektu.

Razvoj umetne inteligence in predpisi – sedanjost in prihodnost

Z vsakim mesecem napredek umetne inteligence dosega vrhunce brez primere. Vendar spremljajoči predpisi o AI in okviri upravljanja zaostajajo. Biti morajo bolj robustni in specifični.
Tehnični voditelji in razvijalci umetne inteligence so opozarjali na tveganja umetne inteligence, če ni ustrezno regulirana. Raziskave in razvoj umetne inteligence lahko dodatno prinesejo vrednost v številnih sektorjih, vendar je jasno, da je skrbna regulacija zdaj nujna.

Povezava: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Vir: https://www.unite.ai

Tech leaders highlighting the risks of AI & the urgency of robust AI regulation PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Časovni žig:

Več od Novice Fintech