Technikai vezetők rávilágítanak a mesterséges intelligencia kockázataira és a szigorú mesterségesintelligencia-szabályozás sürgősségére

Technikai vezetők rávilágítanak a mesterséges intelligencia kockázataira és a szigorú mesterségesintelligencia-szabályozás sürgősségére

Technikai vezetők rávilágítanak a mesterséges intelligencia kockázataira és a szigorú mesterségesintelligencia-szabályozás sürgősségére
Az AI növekedése és fejlődése exponenciális volt az elmúlt néhány évben. A Statista jelenti hogy 2024-re a globális mesterségesintelligencia-piac elképesztő, körülbelül 3000 milliárd dolláros bevételt fog generálni, szemben a 126-ös 2015 milliárd dollárral. A technológiai vezetők azonban most figyelmeztetnek bennünket az AI különféle kockázataira.
Főleg a legutóbbi hullám generatív AI az olyan modellek, mint a ChatGPT, új képességeket vezettek be különböző adatérzékeny ágazatokban, mint például az egészségügy, az oktatás, finanszírozstb. Ezek a mesterséges intelligencia által támogatott fejlesztések sebezhetőek a mesterséges intelligencia számos hiányossága miatt, amelyeket a rosszindulatú ügynökök felfedhetnek.
Beszéljük meg, mit mondanak a mesterséges intelligencia szakértői a közelmúltbeli fejleményekről, és emeljük ki az AI lehetséges kockázatait. Röviden kitérünk arra is, hogyan lehet ezeket a kockázatokat kezelni.

Technikai vezetők és aggodalmaik az AI kockázataival kapcsolatban

Geoffrey Hinton

Geoffrey Hinton – egy híres mesterséges intelligencia technológiai vezető (és ennek a területnek a keresztapja), aki nemrégiben kilépett a Google-ból. hangot adott aggodalmának az AI gyors fejlődéséről és lehetséges veszélyeiről. Hinton úgy véli, hogy az AI chatbotok „elég ijesztővé” válhatnak, ha felülmúlják az emberi intelligenciát.
Hinton azt mondja:
„Jelenleg olyan dolgokat látunk, mint például a GPT-4, amely elhomályosítja az embert az általa birtokolt általános ismeretek alapján, és nagy mértékben elhomályosítja őket. Az érvelés szempontjából nem olyan jó, de már képes az egyszerű érvelésre. És tekintettel a fejlődés ütemére, arra számítunk, hogy a dolgok meglehetősen gyorsan javulnak. Ezért aggódnunk kell.”
Sőt, úgy véli, hogy a „rossz szereplők” felhasználhatják az AI-t „rossz dolgokra”, például lehetővé teszik a robotok számára, hogy meglegyenek a maguk részcéljai. Aggodalmai ellenére Hinton úgy véli, hogy a mesterséges intelligencia rövid távú előnyökkel járhat, de sokat kell befektetnünk a mesterséges intelligencia biztonságába és ellenőrzésébe is.

Elon Musk

Elon Musk részvétele az MI-ben a korai befektetésével kezdődött DeepMind 2010-ben társalapítóvá vált OpenAI és a mesterséges intelligencia beépítése a Tesla autonóm járműveibe.
Bár lelkesedik az MI-ért, gyakran hangot ad aggodalmának az MI kockázatai miatt. Musk szerint az erős mesterséges intelligencia rendszerek veszélyesebbek lehetnek a civilizációra, mint az atomfegyverek. Egy interjúban a Fox News 2023 áprilisában ezt mondta:
„A mesterséges intelligencia veszélyesebb, mint például a rosszul irányított repülőgép-tervezés vagy gyártás karbantartása vagy a rossz autógyártás. Abban az értelemben, hogy megvan benne a potenciál – bár kicsik is tekinthetik ennek a valószínűségét –, de nem triviális, és benne van a civilizáció pusztításának lehetősége.”
Ezenkívül Musk támogatja a mesterséges intelligencia kormányzati szabályozásait, hogy biztosítsa a biztonságot a potenciális kockázatokkal szemben, bár „ez nem olyan szórakoztató”.

Az óriás mesterséges intelligencia-kísérletek szüneteltetése: Nyílt levél 1000 AI-szakértő támogatásával

A Future of Life Institute nyílt levelet tett közzé 22. március 2023-én. A levél ideiglenes hat hónapos felfüggesztést kér Az AI-rendszerek fejlesztése fejlettebb mint GPT-4. A szerzők aggodalmukat fejezik ki amiatt, hogy az AI-rendszerek fejlesztési üteme súlyos társadalmi-gazdasági kihívásokat jelent.
Ezenkívül a levél kimondja, hogy az AI-fejlesztőknek együtt kell működniük a döntéshozókkal az AI-irányítási rendszerek dokumentálása érdekében. 2023 júniusáig a levelet több mint 31,000 XNUMX AI fejlesztő, szakértő és technológiai vezető írta alá. A nevezetes aláírók közé tartozik Elon Musk, Steve Wozniak (az Apple társalapítója), Emad Mostaque (vezérigazgató, Stabilitási AI), Yoshua Bengio (Turing-díjas) és még sokan mások.

Ellenérvek az AI-fejlesztés leállításáról

Két kiemelkedő AI-vezető, Andrew Ng és Yann LeCun, ellenezték a fejlett AI-rendszerek fejlesztésének hat hónapos tilalmát, és rossz ötletnek tartják a szüneteltetést.
Ng azt mondja, hogy bár a mesterséges intelligencia bizonyos kockázatokkal jár, mint például az elfogultság, a hatalom koncentrációja stb. De az AI által létrehozott érték az olyan területeken, mint az oktatás, az egészségügy és a reagáló coaching, óriási.
Yann LeCun szerint a kutatást és fejlesztést nem szabad leállítani, bár a végfelhasználókhoz eljutó AI-termékek szabályozhatók.

Melyek az AI lehetséges veszélyei és közvetlen kockázatai?

1. Munkahelyváltás

Az AI-szakértők úgy vélik, hogy az intelligens AI-rendszerek helyettesíthetik a kognitív és kreatív feladatokat. A Goldman Sachs befektetési bank becslése szerint kb 300 millió munkahely generatív mesterséges intelligencia fogja automatizálni.
Ezért szabályozást kell alkotni a mesterséges intelligencia fejlesztésére vonatkozóan, hogy az ne okozzon súlyos gazdasági visszaesést. Oktatási programokat kell létrehozni az alkalmazottak továbbképzésére és átképzésére, hogy megbirkózzanak ezzel a kihívással.

2. Elfogult mesterséges intelligencia rendszerek

torzítások Az emberek körében elterjedt nemre, fajra vagy bőrszínre vonatkozó információk akaratlanul is áthatolhatnak az AI-rendszerek képzéséhez használt adatokon, és ezt követően elfogulttá tehetik az AI-rendszereket.
Például az állások toborzásával összefüggésben egy elfogult mesterséges intelligencia rendszer elvetheti bizonyos etnikai hátterű egyének önéletrajzát, ami diszkriminációt eredményezhet a munkaerőpiacon. Ban ben bűnüldözési, az elfogult prediktív rendészet aránytalanul megcélozhat bizonyos környékeket vagy demográfiai csoportokat.
Ezért elengedhetetlen egy átfogó adatstratégia, amely kezeli a mesterséges intelligencia kockázatait, különösen az elfogultságot. Az AI-rendszereket gyakran értékelni és auditálni kell, hogy tisztességesek legyenek.

3. Biztonságkritikus AI-alkalmazások

Az autonóm járművek, az orvosi diagnosztika és kezelés, a repülési rendszerek, az atomerőművek vezérlése stb. mind példák a biztonság szempontjából kritikus mesterséges intelligencia alkalmazásokra. Ezeket a mesterséges intelligenciarendszereket körültekintően kell fejleszteni, mert még a kisebb hibák is súlyos következményekkel járhatnak az emberi életre vagy a környezetre nézve.
Például az AI szoftver meghibásodása ún Manőverezési jellemzőket növelő rendszer (MCAS) részben a két Boeing 737 MAX lezuhanásának tulajdonítható, először 2018 októberében, majd 2019 márciusában. Sajnos a két balesetben 346 ember halt meg.

Hogyan küzdhetjük le az AI-rendszerek kockázatait? – Felelős mesterséges intelligencia fejlesztés és szabályozási megfelelőség

Felelős AI (RAI) olyan tisztességes, elszámoltatható, átlátható és biztonságos mesterséges intelligencia-rendszerek kifejlesztését és bevezetését jelenti, amelyek biztosítják a magánélet védelmét és követik a jogi szabályozást és a társadalmi normákat. Az AI-rendszerek széles körű és gyors fejlődése miatt a RAI megvalósítása bonyolult lehet.
A nagy technológiai cégek azonban RAI keretrendszereket fejlesztettek ki, mint például:
  1. A Microsoft Responsible AI
  2. A Google AI-elvei
  3. Az IBM Trusted AI
Az AI-laboratóriumok szerte a világon meríthetnek ihletet ezekből az elvekből, vagy saját felelősségteljes mesterségesintelligencia-keretrendszert dolgozhatnak ki, hogy megbízható mesterségesintelligencia-rendszereket készítsenek.

AI szabályozási megfelelőség

Mivel az adatok az AI-rendszerek szerves részét képezik, az AI-alapú szervezeteknek és laboratóriumoknak meg kell felelniük a következő előírásoknak az adatbiztonság, adatvédelem és biztonság érdekében.
  1. GDPR (általános adatvédelmi rendelet) – az EU adatvédelmi keretrendszere.
  2. CCPA (California Consumer Privacy Act) – Kalifornia állam adatvédelmi és fogyasztóvédelmi törvénye.
  3. HIPAA (Health Insurance Portability and Accountability Act) – egy amerikai jogszabály, amely védi a betegek egészségügyi adatait.
  4. EU AI törvényés Etikai irányelvek a megbízható mesterséges intelligencia számára – az Európai Bizottság mesterséges intelligencia-rendelete.
A különböző országok különféle regionális és helyi törvényeket hoztak polgáraik védelmére. Azok a szervezetek, amelyek nem biztosítják az adatokkal kapcsolatos szabályozási megfelelést, súlyos szankciókat vonhatnak maguk után. A GDPR például bírságot szabott ki 20 millió euró vagy az éves nyereség 4%-a súlyos jogsértésekért, mint például jogellenes adatkezelés, nem bizonyított adatkezelés, az érintettek jogainak megsértése, vagy nem védett adattovábbítás nemzetközi jogalanynak.

AI fejlesztés és szabályozás – jelen és jövő

A mesterséges intelligencia fejlődése minden hónapban soha nem látott magasságokat ér el. A kapcsolódó mesterségesintelligencia-szabályozások és irányítási keretrendszerek azonban elmaradnak. Erősebbnek és specifikusabbnak kell lenniük.
A technológiai vezetők és a mesterséges intelligencia fejlesztői riasztanak a mesterséges intelligencia kockázatairól, ha nem szabályozzák megfelelően. A mesterséges intelligencia kutatása és fejlesztése számos ágazatban további értéket jelenthet, de nyilvánvaló, hogy most elengedhetetlen a gondos szabályozás.

Link: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Forrás: https://www.unite.ai

Tech leaders highlighting the risks of AI & the urgency of robust AI regulation PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Időbélyeg:

Még több Fintech hírek