Tehnikajuhid rõhutavad tehisintellektiga seotud riske ja jõulise tehisintellekti reguleerimise kiireloomulisust

Tehnikajuhid rõhutavad tehisintellektiga seotud riske ja jõulise tehisintellekti reguleerimise kiireloomulisust

Tehnikajuhid rõhutavad tehisintellektiga seotud riske ja jõulise tehisintellekti reguleerimise kiireloomulisust
AI kasv ja edusammud on viimastel aastatel olnud plahvatuslikud. Statistika teatab et 2024. aastaks teenib ülemaailmne tehisintellekti turg vapustavat tulu umbes 3000 miljardit dollarit, võrreldes 126 miljardi dollariga 2015. aastal. Kuid nüüd hoiatavad tehnoloogialiidrid meid tehisintellektiga kaasnevate erinevate riskide eest.
Eriti hiljutine laine generatiivne AI mudelid, nagu ChatGPT, on kasutusele võtnud uusi võimalusi erinevates andmetundlikes sektorites, nagu tervishoid, haridus, rahastamajne. Need AI-ga toetatud arendused on haavatavad paljude tehisintellekti puuduste tõttu, mida pahatahtlikud agendid võivad paljastada.
Arutame, mida AI-eksperdid hiljutiste arengute kohta räägivad, ja toome välja AI võimalikud riskid. Samuti käsitleme lühidalt, kuidas neid riske maandada.

Tehnikajuhid ja nende mured seoses tehisintellekti riskidega

Geoffrey Hinton

Geoffrey Hinton – kuulus tehisintellekti juht (ja selle valdkonna ristiisa), kes hiljuti Google’ist lahkus, on väljendas oma muret tehisintellekti kiire arengu ja selle võimalike ohtude kohta. Hinton usub, et AI-vestlusbotid võivad muutuda "üsna hirmutavaks", kui nad ületavad inimese intelligentsust.
Hinton ütleb:
"Praegu näeme selliseid asju nagu GPT-4 varjutab inimest nii palju, kui palju tal on üldteadmisi, ja see varjutab neid suurel määral. Arutluskäigu osas pole see nii hea, kuid juba teeb lihtsat arutlust. Ja edenemise kiirust arvestades eeldame, et asjad paranevad üsna kiiresti. Nii et me peame selle pärast muretsema."
Veelgi enam, ta usub, et "halvad näitlejad" saavad kasutada tehisintellekti "halbade asjade jaoks", näiteks lubada robotitel oma alaeesmärke saavutada. Hoolimata oma murest usub Hinton, et tehisintellekt võib tuua lühiajalist kasu, kuid me peaksime ka palju investeerima tehisintellekti ohutusse ja kontrolli.

Elon Musk

Elon Muski seotus tehisintellektiga sai alguse tema varajasest investeeringust Deepmind 2010. aastal kaasasutajaks OpenAI ja tehisintellekti lisamine Tesla autonoomsetesse sõidukitesse.
Kuigi ta on tehisintellektist entusiastlik, väljendab ta sageli muret tehisintellektiga seotud riskide pärast. Musk ütleb, et võimsad AI-süsteemid võivad olla tsivilisatsioonile ohtlikumad kui tuumarelvad. Intervjuus kl Fox News aprillis 2023 ütles ta:
„AI on ohtlikum kui näiteks lennuki valesti juhitud projekteerimine või tootmise hooldus või halb autode tootmine. Selles mõttes, et sellel on potentsiaal – kuigi väike võib seda tõenäosust pidada –, kuid see pole triviaalne ja sellel on tsivilisatsiooni hävitamise potentsiaal.
Lisaks toetab Musk valitsuse määrusi tehisintellekti kohta, et tagada ohutus võimalike riskide eest, kuigi "see pole nii lõbus".

Peatage hiiglaslikud AI-katsed: avatud kiri, mida toetavad 1000 AI-eksperti

Future of Life Institute avaldas avaliku kirja 22. märtsil 2023. Kirjas nõutakse ajutist kuuekuulist peatamist AI-süsteemide arendamine on arenenum kui GPT-4. Autorid väljendavad muret tehisintellektisüsteemide arendamise tempo pärast, mis kujutab endast tõsiseid sotsiaalmajanduslikke väljakutseid.
Lisaks märgitakse kirjas, et tehisintellekti arendajad peaksid tehisintellekti juhtimissüsteemide dokumenteerimiseks tegema koostööd poliitikakujundajatega. 2023. aasta juuni seisuga on kirjale alla kirjutanud üle 31,000 XNUMX tehisintellekti arendaja, eksperdi ja tehnoloogiajuhi. Märkimisväärsete allakirjutanute hulka kuuluvad Elon Musk, Steve Wozniak (Apple'i kaasasutaja), Emad Mostaque (Stability AI tegevjuht), Yoshua Bengio (Turingi auhinna võitja) ja paljud teised.

Vastuargumendid tehisintellekti arendamise peatamise kohta

Kaks silmapaistvat AI juhti, Andrew Ng ja Yann LeCun, on vastu seisnud täiustatud tehisintellektisüsteemide arendamise kuuekuulisele keelule ja pidanud pausi halvaks ideeks.
Ng ütleb, et kuigi tehisintellektil on teatud riske, nagu eelarvamus, võimu kontsentratsioon jne. Kuid tehisintellekti loodud väärtus sellistes valdkondades nagu haridus, tervishoid ja reageeriv juhendamine on tohutu.
Yann LeCun ütleb, et teadus- ja arendustegevust ei tohiks peatada, kuigi lõppkasutajani jõudvaid tehisintellekti tooteid saab reguleerida.

Millised on AI võimalikud ohud ja otsesed riskid?

1. Töökoha ümberpaigutamine

AI-eksperdid usuvad, et intelligentsed AI-süsteemid võivad asendada kognitiivseid ja loomingulisi ülesandeid. Investeerimispank Goldman Sachs hindab, et umbes 300 miljonit töökohta automatiseeritakse generatiivse AI abil.
Seetõttu peaksid tehisintellekti arendamiseks olema eeskirjad, et see ei põhjustaks tõsist majanduslangust. Selle väljakutsega toimetulemiseks peaksid olema haridusprogrammid töötajate kvalifikatsiooni tõstmiseks ja ümberõppimiseks.

2. Kallutatud AI-süsteemid

Eelarvamused Inimeste seas levinud soo, rassi või nahavärviga seotud teave võib tahtmatult tungida tehisintellektisüsteemide treenimiseks kasutatavatesse andmetesse, muutes tehisintellektisüsteemid kallutatud.
Näiteks töökohtade värbamise kontekstis võib kallutatud tehisintellekti süsteem kõrvale jätta konkreetse etnilise taustaga inimeste elulookirjeldused, tekitades tööturul diskrimineerimist. sisse õiguskaitse, kallutatud ennustav politsei võib ebaproportsionaalselt sihtida konkreetseid linnaosasid või demograafilisi rühmi.
Seetõttu on oluline omada kõikehõlmavat andmestrateegiat, mis käsitleb tehisintellekti riske, eriti eelarvamusi. AI-süsteeme tuleb sageli hinnata ja auditeerida, et need oleksid õiglased.

3. Ohutuskriitilised AI-rakendused

Autonoomsed sõidukid, meditsiiniline diagnostika ja ravi, lennusüsteemid, tuumaelektrijaama juhtimine jne on kõik näited ohutuskriitilistest tehisintellekti rakendustest. Neid tehisintellektisüsteeme tuleks arendada ettevaatlikult, sest isegi väiksematel vigadel võivad olla inimelule või keskkonnale tõsised tagajärjed.
Näiteks tehisintellekti tarkvara talitlushäire nn Manööverdamisomaduste suurendamise süsteem (MCAS) Osaliselt seostatakse kahe Boeing 737 MAXi allakukkumisega, mis toimus esmalt 2018. aasta oktoobris ja seejärel 2019. aasta märtsis. Kahjuks hukkus kahes õnnetuses 346 inimest.

Kuidas me saame AI-süsteemide riskidest üle saada? – vastutustundlik tehisintellekti arendamine ja eeskirjade järgimine

Vastutustundlik AI (RAI) tähendab õiglaste, vastutustundlike, läbipaistvate ja turvaliste tehisintellektisüsteemide väljatöötamist ja juurutamist, mis tagavad privaatsuse ning järgivad õigusnorme ja ühiskondlikke norme. Arvestades tehisintellektisüsteemide laiaulatuslikku ja kiiret arengut, võib RAI rakendamine olla keeruline.
Suured tehnoloogiaettevõtted on aga välja töötanud RAI raamistikud, näiteks:
  1. Microsofti vastutustundlik AI
  2. Google'i AI põhimõtted
  3. IBMi usaldusväärne AI
AI laborid üle maailma saavad neist põhimõtetest inspiratsiooni ammutada või usaldusväärsete AI-süsteemide loomiseks välja töötada oma vastutustundlikud tehisintellekti raamistikud.

AI regulatiivne vastavus

Kuna andmed on AI-süsteemide lahutamatu osa, peavad tehisintellektil põhinevad organisatsioonid ja laborid andmete turvalisuse, privaatsuse ja ohutuse tagamiseks järgima järgmisi eeskirju.
  1. GDPR (üldine andmekaitsemäärus) – ELi andmekaitseraamistik.
  2. CCPA (California Consumer Privacy Act) – California osariigi eraelu puutumatuse ja tarbijakaitse põhikiri.
  3. HIPAA (Health Insurance Portability and Accountability Act) – USA seadusandlus, mis kaitseb patsientide meditsiinilisi andmeid.
  4. EL AI seadusja Usaldusväärse tehisintellekti eetikajuhised – Euroopa Komisjoni tehisintellekti määrus.
Erinevad riigid on oma kodanike kaitsmiseks vastu võtnud erinevaid piirkondlikke ja kohalikke seadusi. Organisatsioonid, kes ei suuda tagada andmetega seotud eeskirjade järgimist, võivad kaasa tuua karmid karistused. Näiteks on GDPR määranud trahvi 20 miljonit eurot ehk 4% aastakasumist tõsiste rikkumiste eest, nagu andmete ebaseaduslik töötlemine, andmete tõendamata nõusolek, andmesubjektide õiguste rikkumine või kaitsmata andmete edastamine rahvusvahelisele üksusele.

AI arendus ja eeskirjad – olevik ja tulevik

Iga kuuga jõuavad tehisintellekti edusammud enneolematutele kõrgustele. Kuid kaasnevad AI määrused ja juhtimisraamistikud on mahajäänud. Need peavad olema tugevamad ja spetsiifilisemad.
Tehnikajuhid ja tehisintellekti arendajad on kutsunud häireid AI riskide kohta, kui seda ei ole piisavalt reguleeritud. AI-alane teadus- ja arendustegevus võib paljudes sektorites veelgi väärtust tuua, kuid on selge, et hoolikas reguleerimine on nüüd hädavajalik.

Link: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Allikas: https://www.unite.ai

Tehnoloogiajuhid rõhutavad tehisintellektiga seotud riske ja tugeva tehisintellekti reguleerimise kiireloomulisust PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.

Ajatempel:

Veel alates Fintechi uudised