Miért kell ismerned mesterséges intelligencia felmenőit?

Miért kell ismerned mesterséges intelligencia felmenőit?

Miért kell ismernie a mesterséges intelligencia felmenőinek PlatoBlockchain adatintelligenciáját? Függőleges keresés. Ai.

KOMMENTÁR

A mesterséges intelligencia (AI) gyorsan megváltoztatja mindennapi életünk szinte minden aspektusát, a munkánktól kezdve az információfelvételen át egészen a vezetőink meghatározásáig. Mint minden technológia, a mesterséges intelligencia amorális, de felhasználható a társadalom, ill kárt okozni.

Az adatok azok a gének, amelyek az AI-alkalmazásokat működtetik. Ez a DNS és az RNS egybe van csomagolva. Ahogy a szoftverrendszerek építésekor szokták mondani: „szemetet be/szemetet ki”. Az AI-technológia csak annyira pontos, biztonságos és működőképes, mint az általa használt adatforrások. A kulcs annak biztosításában, hogy az AI beváltsa ígéretét és elkerülje rémálmait, abban rejlik, hogy távol tartható a szemét, és megakadályozható, hogy az AI alkalmazások milliói között elterjedjen és replikálódjon.

Ezt hívják adatforrásnak, és nem várhatunk még egy napot, hogy olyan vezérlőket alkalmazzunk, amelyek megakadályozzák, hogy mesterséges intelligencia jövőnk hatalmas szemétdombbá váljon.

A rossz adatok olyan mesterséges intelligencia modellekhez vezetnek, amelyek másodpercek alatt képesek kiberbiztonsági sebezhetőségeket, félretájékoztatást és egyéb támadásokat terjeszteni világszerte. A mai generatív AI A (GenAI) modellek hihetetlenül összetettek, de alapvetően a GenAI modellek egyszerűen megjósolják a legjobb következő adattömeget a kimenetre, tekintettel a meglévő korábbi adatokra.

A pontosság mérése

A ChatGPT-típusú modell kiértékeli az eredeti kérdést alkotó szavak halmazát, valamint a modell válaszában szereplő összes szót, hogy kiszámítsa a következő legjobb szót. Ezt mindaddig megteszi, amíg úgy nem dönti, hogy elegendő választ adott. Tegyük fel, hogy értékeli a modell azon képességét, hogy összefűzze azokat a szavakat, amelyek jól formált, nyelvtanilag helyes mondatokat alkotnak, amelyek a témához tartoznak és általában relevánsak a beszélgetéshez. Ebben az esetben a mai modellek elképesztően jók – a pontosság mértéke.

Merüljön mélyebbre hogy a mesterséges intelligencia által előállított szöveg mindig „helyes” információt közvetít-e és megfelelően jelzi a továbbított információ megbízhatósági szintjét. Ez feltárja azokat a problémákat, amelyek olyan modellekből származnak, amelyek átlagosan nagyon jól jósolnak, de nem olyan jól a szélsőséges esetekben – ami robusztussági problémát jelent. Ez még tovább fokozható, ha az AI-modellek gyenge adatkimenetét az interneten tárolják, és későbbi képzési adatokként használják fel ezekhez és más modellekhez.

A gyenge kimenetek olyan léptékben replikálódhatnak, amit még soha nem láttunk, ami lefelé mutató AI végzethurkot okoz.

Ha egy rossz színész segíteni akarna ebben a folyamatban, szándékosan bátoríthatna extra rossz adatok előállítására, tárolására és terjesztésére – ami még több téves információhoz vezethet a chatbotokból, vagy valami olyan aljas és félelmetes dologhoz, mint az autók robotpilóta modelljei, akik úgy döntenek, hogy szükségük van rá. kanyarodjon el gyorsan jobbra egy autót annak ellenére, hogy az útban lévő tárgyak, ha egy speciálisan kialakított képet „látnak” maguk előtt (persze hipotetikusan).

Évtizedek után a szoftverfejlesztő iparág – a Kiberbiztonsági Infrastruktúra Biztonsági Ügynökség vezetésével – végre bevezet egy biztonságos tervezés keretet. Tervezés szerint biztonságos előírja, hogy a kiberbiztonság a szoftverfejlesztési folyamat alapja, és egyik alapelve megköveteli minden szoftverfejlesztési komponens katalogizálását – a szoftveres anyagjegyzék (SBOM) — a biztonság és az ellenálló képesség erősítése. Végül a biztonság a sebességet váltja fel, mint a piacra lépés legkritikusabb tényezőjét.

AI tervek biztosítása

Az AI-nak valami hasonlóra van szüksége. Az AI visszacsatolási hurok megakadályozza az olyan gyakori múltbeli kiberbiztonsági technikákat, mint a rosszindulatú programok aláírásának nyomon követése, a hálózati erőforrások körüli kerületek kiépítése vagy az ember által írt kódok sebezhetőségeinek keresése. A biztonságos mesterséges intelligencia kialakítását követelményként kell érvényre juttatnunk a technológia kezdeti szakaszában, hogy a mesterséges intelligencia biztonságossá váljon még jóval azelőtt, hogy Pandora szelencéjét kinyitnák.

Szóval, hogyan oldjuk meg ezt a problémát? Ki kellene emelnünk egy oldalt a tudományos világból. A hallgatókat erősen összegyűjtött képzési adatokkal képezzük, amelyeket egy tanári iparágon keresztül értelmezünk és továbbítunk nekik. Folytatjuk ezt a megközelítést a felnőttek tanítása során, de a felnőttektől elvárják, hogy maguk végezzenek több adatkezelést.

Az AI-modell képzésének kétlépcsős, összegyűjtött adatok megközelítését kell alkalmaznia. Kezdetben a mesterséges intelligencia alapmodelljeit a jelenlegi módszerekkel képeznék ki, hatalmas mennyiségű, kevésbé gondozott adatkészlet felhasználásával. Ezek a nagy nyelvi alapmodellek (LLM-ek) nagyjából egy újszülött csecsemőhöz hasonlóak. Az alapszintű modelleket ezután erősen összegyűjtött adatkészletekkel képeznék ki, hasonlóan ahhoz, ahogyan a gyerekeket felnőtté tanítják és nevelik.

Nem lesz kicsi az erőfeszítés, hogy nagy, válogatott edzési adatkészleteket hozzunk létre minden típusú célhoz. Ez analóg mindazokkal az erőfeszítésekkel, amelyeket a szülők, az iskolák és a társadalom tesz annak érdekében, hogy minőségi környezetet és minőségi információkat biztosítsanak a gyermekek számára, miközben a társadalom (remélhetőleg) működő, hozzáadott értéket képviselő szereplőivé válnak. Ennyi erőfeszítést igényel a minőségi adatkészletek létrehozása a minőségi, jól működő, minimálisan sérült mesterséges intelligencia modellek képzéséhez, és ez oda vezethet, hogy a mesterséges intelligencia és az emberek egész iparága dolgozik együtt annak érdekében, hogy megtanítsa az AI-modelleket arra, hogy jól teljesítsék célfeladatukat. .

A mai mesterséges intelligencia képzési folyamat állapota ennek a kétlépcsős folyamatnak néhány jelét mutatja. A GenAI technológia és az ipar gyerekcipői miatt azonban a túl sok képzés a kevésbé gondozott, első szakaszú megközelítést alkalmazza.

Ami a mesterséges intelligencia biztonságát illeti, nem engedhetjük meg magunknak, hogy egy órát várjunk, nemhogy egy évtizedet. A mesterséges intelligencia szüksége van egy 23andMe alkalmazásra, amely lehetővé teszi az „algoritmus genealógiájának” teljes áttekintését, hogy a fejlesztők teljes mértékben megérthessék az AI „családi” történetét, hogy megakadályozzák a krónikus problémák ismétlődését, megfertőzve azokat a kritikus rendszereket, amelyekre mindennap támaszkodunk, és gazdasági és társadalmi károkat okozva. ami visszafordíthatatlan lehet.

Nemzetbiztonságunk ettől függ.

Időbélyeg:

Még több Sötét olvasmány