Techleiders benadrukken de risico's van AI en de urgentie van robuuste AI-regelgeving

Techleiders benadrukken de risico's van AI en de urgentie van robuuste AI-regelgeving

Techleiders benadrukken de risico's van AI en de urgentie van robuuste AI-regelgeving
De groei en vooruitgang van AI is de afgelopen jaren exponentieel geweest. Statista-rapporten dat de wereldwijde AI-markt tegen 2024 een duizelingwekkende omzet van ongeveer $ 3000 miljard zal genereren, vergeleken met $ 126 miljard in 2015. Technologieleiders waarschuwen ons nu echter voor de verschillende risico's van AI.
Vooral de recente golf van generatieve AI modellen zoals ChatGPT hebben nieuwe mogelijkheden geïntroduceerd in verschillende datagevoelige sectoren, zoals gezondheidszorg, onderwijs, financiën, etc. Deze AI-ondersteunde ontwikkelingen zijn kwetsbaar vanwege de vele AI-tekortkomingen die kwaadwillende agenten kunnen blootleggen.
Laten we bespreken wat AI-experts zeggen over de recente ontwikkelingen en de potentiële risico's van AI benadrukken. Ook gaan we kort in op hoe deze risico's kunnen worden beheerst.

Techleiders en hun zorgen met betrekking tot de risico's van AI

Jeffrey Hinton

Geoffrey Hinton - een beroemde AI-technologieleider (en peetvader van dit veld), die onlangs Google heeft verlaten uitte zijn zorgen over de snelle ontwikkeling van AI en de potentiële gevaren ervan. Hinton gelooft dat AI-chatbots "behoorlijk eng" kunnen worden als ze de menselijke intelligentie overtreffen.
Hinton zegt:
“Wat we nu zien, is dat zaken als GPT-4 een persoon overschaduwen in de hoeveelheid algemene kennis die hij heeft, en het overschaduwt hen ver. Qua redenering is het niet zo goed, maar het doet al eenvoudige redeneringen. En gezien het tempo van de vooruitgang, verwachten we dat het vrij snel beter zal gaan. Dus daar moeten we ons zorgen over maken.”
Bovendien gelooft hij dat "slechte acteurs" AI kunnen gebruiken voor "slechte dingen", zoals het toestaan ​​dat robots hun subdoelen hebben. Ondanks zijn zorgen is Hinton van mening dat AI op korte termijn voordelen kan opleveren, maar we moeten ook fors investeren in de veiligheid en controle van AI.

Elon Musk

De betrokkenheid van Elon Musk bij AI begon met zijn vroege investering in DeepMind in 2010 tot medeoprichter OpenAI en het integreren van AI in de autonome voertuigen van Tesla.
Hoewel hij enthousiast is over AI, maakt hij zich regelmatig zorgen over de risico's van AI. Musk zegt dat krachtige AI-systemen gevaarlijker kunnen zijn voor de beschaving dan kernwapens. In een interview op Fox News in april 2023 zei hij:
“AI is gevaarlijker dan bijvoorbeeld slecht beheerd vliegtuigontwerp of productie-onderhoud of slechte autoproductie. In de zin dat het het potentieel heeft – hoe klein men die kans ook mag achten – maar het is niet triviaal en heeft het potentieel van vernietiging van de beschaving.”
Bovendien steunt Musk overheidsregelgeving over AI om de veiligheid tegen mogelijke risico's te waarborgen, hoewel "het niet zo leuk is".

Pauzeer gigantische AI-experimenten: een open brief ondersteund door duizenden AI-experts

Future of Life Institute heeft een open brief gepubliceerd op 22 maart 2023. In de brief wordt opgeroepen tot een tijdelijke stopzetting van zes maanden Ontwikkeling van AI-systemen geavanceerder neem contact  GPT-4. De auteurs uiten hun bezorgdheid over het tempo waarin AI-systemen worden ontwikkeld, wat ernstige sociaaleconomische uitdagingen met zich meebrengt.
Bovendien stelt de brief dat AI-ontwikkelaars moeten samenwerken met beleidsmakers om AI-governancesystemen te documenteren. Sinds juni 2023 is de brief ondertekend door meer dan 31,000 AI-ontwikkelaars, experts en technologieleiders. Opmerkelijke ondertekenaars zijn Elon Musk, Steve Wozniak (mede-oprichter van Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (Turing Prize-winnaar) en nog veel meer.

Tegenargumenten over het stoppen van AI-ontwikkeling

Twee prominente AI-leiders, Andrew Ng en Yann LeCun, hebben zich verzet tegen het zes maanden durende verbod op het ontwikkelen van geavanceerde AI-systemen en vonden de pauze een slecht idee.
Ng zegt dat hoewel AI enkele risico's met zich meebrengt, zoals vooringenomenheid, machtsconcentratie, enz. Maar de waarde die AI creëert op gebieden als onderwijs, gezondheidszorg en responsieve coaching is enorm.
Yann LeCun zegt dat onderzoek en ontwikkeling niet mogen worden stopgezet, hoewel de AI-producten die de eindgebruiker bereiken wel gereguleerd kunnen worden.

Wat zijn de potentiële gevaren en onmiddellijke risico's van AI?

1. Verplaatsing van banen

AI-experts zijn van mening dat intelligente AI-systemen cognitieve en creatieve taken kunnen vervangen. Investeringsbank Goldman Sachs schat dat rond 300 miljoen banen zal worden geautomatiseerd door generatieve AI.
Daarom moeten er regels zijn voor de ontwikkeling van AI, zodat het geen ernstige economische neergang veroorzaakt. Er moeten educatieve programma's zijn voor het bij- en omscholen van werknemers om deze uitdaging aan te gaan.

2. Vooringenomen AI-systemen

biases heersende onder mensen over geslacht, ras of kleur kan onbedoeld doordringen in de gegevens die worden gebruikt voor het trainen van AI-systemen, waardoor AI-systemen vervolgens bevooroordeeld worden.
In de context van het werven van banen kan een bevooroordeeld AI-systeem bijvoorbeeld cv's van personen met een specifieke etnische achtergrond weggooien, waardoor discriminatie op de arbeidsmarkt ontstaat. In politie, kan vooringenomen voorspellend politiewerk onevenredig gericht zijn op specifieke buurten of demografische groepen.
Daarom is het essentieel om een ​​alomvattende datastrategie te hebben die de risico's van AI, met name vooroordelen, aanpakt. AI-systemen moeten regelmatig worden geëvalueerd en gecontroleerd om ze eerlijk te houden.

3. Veiligheidskritische AI-toepassingen

Autonome voertuigen, medische diagnose en behandeling, luchtvaartsystemen, controle van kerncentrales, enz., zijn allemaal voorbeelden van veiligheidskritische AI-toepassingen. Deze AI-systemen moeten met de nodige voorzichtigheid worden ontwikkeld, omdat zelfs kleine fouten ernstige gevolgen kunnen hebben voor mensenlevens of het milieu.
Zo wordt het niet goed functioneren van de AI-software genoemd Manoeuvreerkenmerken Augmentation System (MCAS) wordt gedeeltelijk toegeschreven aan de crash van de twee Boeing 737 MAX, eerst in oktober 2018 en vervolgens in maart 2019. Helaas kwamen bij de twee crashes 346 mensen om het leven.

Hoe kunnen we de risico's van AI-systemen overwinnen? – Verantwoordelijke AI-ontwikkeling en naleving van regelgeving

Verantwoorde AI (RAI) betekent het ontwikkelen en inzetten van eerlijke, verantwoordelijke, transparante en veilige AI-systemen die privacy waarborgen en wettelijke voorschriften en maatschappelijke normen naleven. Het implementeren van RAI kan complex zijn gezien de brede en snelle ontwikkeling van AI-systemen.
Grote technologiebedrijven hebben echter RAI-frameworks ontwikkeld, zoals:
  1. De verantwoordelijke AI van Microsoft
  2. Google's AI-principes
  3. De vertrouwde AI van IBM
AI-labs over de hele wereld kunnen zich laten inspireren door deze principes of hun eigen verantwoorde AI-frameworks ontwikkelen om betrouwbare AI-systemen te maken.

Naleving van AI-regelgeving

Aangezien gegevens een integraal onderdeel zijn van AI-systemen, moeten op AI gebaseerde organisaties en laboratoria voldoen aan de volgende voorschriften om gegevensbeveiliging, privacy en veiligheid te waarborgen.
  1. GDPR (Algemene verordening gegevensbescherming) – een gegevensbeschermingskader door de EU.
  2. CCPA (Californische consumentenprivacywet) – een statuut van de staat Californië voor privacyrechten en consumentenbescherming.
  3. HIPAA (wet overdraagbaarheid en verantwoording van zorgverzekeringen) – een Amerikaanse wetgeving die de medische gegevens van patiënten beschermt.
  4. EU AI-wet en Ethische richtlijnen voor betrouwbare AI – een AI-verordening van de Europese Commissie.
Er zijn verschillende regionale en lokale wetten die door verschillende landen zijn uitgevaardigd om hun burgers te beschermen. Organisaties die er niet in slagen te zorgen voor naleving van de regelgeving met betrekking tot gegevens, kunnen leiden tot zware straffen. Zo heeft de AVG een boete opgelegd van € 20 miljoen of 4% van de jaarwinst voor ernstige inbreuken zoals onwettige gegevensverwerking, onbewezen toestemming voor gegevens, schending van de rechten van betrokkenen of niet-beschermde gegevensoverdracht naar een internationale entiteit.

AI-ontwikkeling en -regelgeving - heden en toekomst

Met elke voorbijgaande maand bereiken de vorderingen op het gebied van AI ongekende hoogten. Maar de bijbehorende AI-regelgeving en governancekaders blijven achter. Ze moeten robuuster en specifieker zijn.
Techleiders en AI-ontwikkelaars luiden alarm over de risico's van AI als deze niet adequaat worden gereguleerd. Onderzoek en ontwikkeling op het gebied van AI kunnen in veel sectoren nog meer waarde opleveren, maar het is duidelijk dat zorgvuldige regelgeving nu absoluut noodzakelijk is.

Link: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Bron: https://www.unite.ai

Tech leaders highlighting the risks of AI & the urgency of robust AI regulation PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Tijdstempel:

Meer van Fintech Nieuws