Liderii tehnologici care evidențiază riscurile AI și urgența unei reglementări robuste AI

Liderii tehnologici care evidențiază riscurile AI și urgența unei reglementări robuste AI

Liderii tehnologici care evidențiază riscurile AI și urgența unei reglementări robuste AI
Creșterea și progresele AI au fost exponențiale în ultimii câțiva ani. Rapoarte Statista că până în 2024, piața globală de inteligență artificială va genera un venit uimitor de aproximativ 3000 de miliarde de dolari, comparativ cu 126 de miliarde de dolari în 2015. Cu toate acestea, liderii tehnologiei ne avertizează acum despre diferitele riscuri ale inteligenței artificiale.
Mai ales, recentul val de AI generativă modele precum ChatGPT au introdus noi capabilități în diverse sectoare sensibile la date, cum ar fi asistența medicală, educația, finanţa, etc. Aceste dezvoltări susținute de AI sunt vulnerabile din cauza numeroaselor deficiențe ale AI pe care agenții rău intenționați le pot expune.
Să discutăm ce spun experții AI despre evoluțiile recente și să evidențiem riscurile potențiale ale AI. De asemenea, vom aborda pe scurt modul în care aceste riscuri pot fi gestionate.

Liderii tehnologici și preocupările lor legate de riscurile AI

Geoffrey Hinton

Geoffrey Hinton – un celebru lider în domeniul tehnologiei AI (și nașul acestui domeniu), care a părăsit recent Google, a și-a exprimat îngrijorările despre dezvoltarea rapidă a IA și pericolele potențiale ale acesteia. Hinton crede că chatbot-urile AI pot deveni „destul de înfricoșătoare” dacă depășesc inteligența umană.
Hinton spune:
„În acest moment, ceea ce vedem este că lucruri precum GPT-4 eclipsează o persoană în cantitatea de cunoștințe generale pe care le are și o eclipsează în mare măsură. În ceea ce privește raționamentul, nu este la fel de bun, dar face deja raționamente simple. Și având în vedere rata de progres, ne așteptăm ca lucrurile să se îmbunătățească destul de repede. Așa că trebuie să ne facem griji pentru asta.”
Mai mult, el crede că „actorii răi” pot folosi AI pentru „lucruri rele”, cum ar fi să le permită roboților să aibă sub-obiectivele lor. În ciuda îngrijorărilor sale, Hinton consideră că AI poate aduce beneficii pe termen scurt, dar ar trebui să investim mult și în siguranța și controlul AI.

Elon Musk

Implicarea lui Elon Musk în AI a început cu investiția sa timpurie în DeepMind în 2010, până la cofondare OpenAI și încorporarea AI în vehiculele autonome ale Tesla.
Deși este entuziasmat de IA, își exprimă frecvent îngrijorarea cu privire la riscurile AI. Musk spune că sistemele AI puternice pot fi mai periculoase pentru civilizație decât armele nucleare. Într-un interviu la Fox News în aprilie 2023, el a spus:
„AI este mai periculoasă decât, să zicem, proiectarea aeronavelor prost gestionată sau întreținerea producției sau producția proastă de mașini. În sensul că are potențialul – totuși, o mică probabilitate poate considera – dar nu este banal și are potențialul de distrugere a civilizației.”
Mai mult, Musk sprijină reglementările guvernamentale privind AI pentru a asigura siguranța față de potențiale riscuri, deși „nu este atât de distractiv”.

Întrerupeți experimentele gigant AI: o scrisoare deschisă susținută de 1000 de experți în inteligență artificială

Institutul Future of Life a publicat o scrisoare deschisă pe 22 martie 2023. Scrisoarea solicită o oprire temporară de șase luni Dezvoltarea sistemelor AI mai avansată decât GPT-4. Autorii își exprimă îngrijorarea cu privire la ritmul cu care sunt dezvoltate sistemele AI ridică provocări socioeconomice severe.
Mai mult, scrisoarea afirmă că dezvoltatorii AI ar trebui să lucreze cu factorii de decizie pentru a documenta sistemele de guvernare AI. În iunie 2023, scrisoarea a fost semnată de peste 31,000 de dezvoltatori AI, experți și lideri tehnologici. Printre semnatari de seamă se numără Elon Musk, Steve Wozniak (co-fondatorul Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (câștigătorul Premiului Turing) și mulți alții.

Argumente contrare privind oprirea dezvoltării AI

Doi lideri proeminenți AI, Andrew Ng și Yann LeCun, s-au opus interdicției de șase luni privind dezvoltarea sistemelor AI avansate și au considerat că pauza este o idee proastă.
Ng spune că, deși AI are unele riscuri, cum ar fi părtinirea, concentrarea puterii etc. Dar valoarea creată de AI în domenii precum educația, sănătatea și coachingul receptiv este extraordinară.
Yann LeCun spune că cercetarea și dezvoltarea nu ar trebui oprite, deși produsele AI care ajung la utilizatorul final pot fi reglementate.

Care sunt pericolele potențiale și riscurile imediate ale AI?

1. Deplasarea locului de muncă

Experții în inteligență artificială consideră că sistemele inteligente de inteligență artificială pot înlocui sarcinile cognitive și creative. Banca de investiții Goldman Sachs estimează că în jur 300 milioane de locuri de muncă va fi automatizat de AI generativ.
Prin urmare, ar trebui să existe reglementări privind dezvoltarea IA, astfel încât aceasta să nu provoace o recesiune economică severă. Ar trebui să existe programe educaționale pentru îmbunătățirea și recalificarea angajaților pentru a face față acestei provocări.

2. Sisteme AI părtinitoare

Prejudecățile predominant în rândul ființelor umane despre sex, rasă sau culoare poate pătrunde din neatenție în datele utilizate pentru antrenarea sistemelor AI, făcând ulterior părtinitoare sistemele AI.
De exemplu, în contextul recrutării locurilor de muncă, un sistem AI părtinitor poate elimina CV-urile persoanelor din medii etnice specifice, creând discriminare pe piața muncii. În de aplicare a legii, poliția predictivă părtinitoare ar putea viza în mod disproporționat anumite cartiere sau grupuri demografice.
Prin urmare, este esențial să existe o strategie cuprinzătoare de date care să abordeze riscurile AI, în special părtinirea. Sistemele AI trebuie evaluate și auditate frecvent pentru a le menține echitabile.

3. Aplicații AI critice pentru siguranță

Vehicule autonome, diagnostic și tratament medical, sisteme de aviație, controlul centralelor nucleare etc., toate sunt exemple de aplicații AI critice pentru siguranță. Aceste sisteme AI ar trebui dezvoltate cu prudență, deoarece chiar și erori minore ar putea avea consecințe grave asupra vieții umane sau a mediului.
De exemplu, defecțiunea software-ului AI numit Sistemul de creștere a caracteristicilor de manevră (MCAS) este atribuită parțial prăbușirii celor două Boeing 737 MAX, mai întâi în octombrie 2018 și apoi în martie 2019. Din păcate, cele două accidente au ucis 346 de persoane.

Cum putem depăși riscurile sistemelor AI? – Dezvoltare responsabilă AI și conformitate cu reglementările

AI responsabil (RAI) înseamnă dezvoltarea și implementarea unor sisteme AI corecte, responsabile, transparente și sigure care asigură confidențialitatea și respectă reglementările legale și normele societale. Implementarea RAI poate fi complexă, având în vedere dezvoltarea largă și rapidă a sistemelor AI.
Cu toate acestea, marile companii de tehnologie au dezvoltat cadre RAI, cum ar fi:
  1. IA responsabilă de la Microsoft
  2. Principiile AI ale Google
  3. AI de încredere IBM
Laboratoarele de inteligență artificială din întreaga lume se pot inspira din aceste principii sau își pot dezvolta propriile cadre responsabile de inteligență artificială pentru a crea sisteme de inteligență artificială de încredere.

Conformitatea cu reglementările AI

Deoarece datele sunt o componentă integrală a sistemelor AI, organizațiile și laboratoarele bazate pe AI trebuie să respecte următoarele reglementări pentru a asigura securitatea, confidențialitatea și siguranța datelor.
  1. GDPR (Regulamentul general privind protecția datelor) – un cadru de protecție a datelor de către UE.
  2. CCPA (California Consumer Privacy Act) – un statut al statului California pentru drepturile la confidențialitate și protecția consumatorilor.
  3. HIPAA (Legea privind portabilitatea și responsabilitatea asigurărilor de sănătate) – o legislație americană care protejează datele medicale ale pacienților.
  4. Actul AI al UE, și Orientări etice pentru IA de încredere – un regulament AI al Comisiei Europene.
Există diverse legi regionale și locale adoptate de diferite țări pentru a-și proteja cetățenii. Organizațiile care nu reușesc să asigure conformitatea cu reglementările în ceea ce privește datele pot duce la sancțiuni severe. De exemplu, GDPR a stabilit o amendă de 20 milioane EUR sau 4% din profitul anual pentru încălcări grave, cum ar fi prelucrarea ilegală a datelor, consimțământul nedovedit pentru date, încălcarea drepturilor persoanelor vizate sau transferul de date neprotejate către o entitate internațională.

Dezvoltare și reglementări AI – prezent și viitor

Cu fiecare lună care trece, progresele AI ating cote fără precedent. Însă, reglementările însoțitoare ale AI și cadrele de guvernare sunt în urmă. Ele trebuie să fie mai robuste și mai specifice.
Liderii tehnologici și dezvoltatorii de IA au sunat alarme cu privire la riscurile AI dacă nu sunt reglementate în mod adecvat. Cercetarea și dezvoltarea în domeniul inteligenței artificiale pot aduce și mai mult valoare în multe sectoare, dar este clar că o reglementare atentă este acum imperativă.

Link: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Sursa: https://www.unite.ai

Tech leaders highlighting the risks of AI & the urgency of robust AI regulation PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Timestamp-ul:

Mai mult de la Stiri Fintech