Nonprofit szervezet webhelyet épít az MI-balesetek nyomon követésére

Nonprofit szervezet webhelyet épít az MI-balesetek nyomon követésére

Nonprofit szervezet webhelyet épít a PlatoBlockchain Data Intelligence növekvő mesterséges intelligencia-baleseteinek nyomon követésére. Függőleges keresés. Ai.

Interjú Hamis képek Donald Trumpot a kitalált fekete szavazók, a női osztálytársaikról pornográf mélyhamisítványokat készítő középiskolások és a Google Gemini chatbotja támogatják. hiányában hogy pontosan készítsenek képeket fehér emberekről.

Ezek a legfrissebb katasztrófák a listán AI incidens adatbázis – egy webhely, amely figyelemmel kíséri a technológia mindenféle hibáját.

A kezdetben a Partnership On AI égisze alatt indult projekt, amely a mesterséges intelligencia társadalom javát próbálja biztosítani. Az AI Incident Database mára az Underwriters Laboratories – a legnagyobb és legrégebbi (1894) független – által finanszírozott nonprofit szervezet. tesztelő laboratórium az Egyesült Államokban. Mindenféle terméket tesztel – a bútoroktól a számítógépes egerekig –, és webhelyén eddig több mint 600 egyedi automatizálással és mesterséges intelligenciával kapcsolatos eseményt katalogizált.

„Óriási információs aszimmetria van az AI-rendszerek gyártói és a nyilvános fogyasztók között – és ez nem fair” – érvelt Patrick Hall, a George Washington Egyetem Üzleti Iskola adjunktusa, aki jelenleg az AI Incident Database igazgatótanácsának tagja. . Ő mondta A regisztráció: "Nagyobb átláthatóságra van szükségünk, és úgy érezzük, az a feladatunk, hogy megosszuk ezeket az információkat."

Az AI Incident Database a non-profit szervezet által létrehozott CVE Program mintájára készült Mitre, Vagy a Országos Közlekedésbiztonsági Hivatal nyilvánosan közzétett kiberbiztonsági sebezhetőségekről és járműbalesetekről szóló weboldal. „Bármikor, amikor repülőgép-baleset, vonatbaleset vagy nagy kiberbiztonsági incidens történik, évtizedek óta bevett gyakorlattá vált, hogy rögzítjük a történteket, hogy megpróbáljuk megérteni, mi történt rosszul, és ne ismételjük meg.”

A webhelyet jelenleg körülbelül tíz ember kezeli, valamint néhány önkéntes és vállalkozó, akik felülvizsgálják és online közzéteszik az MI-vel kapcsolatos eseményeket. Heather Frase, a Georgetown főmunkatársa Biztonsági és Feltörekvő Technológiai Központ Az AI Assessment és az AI Incident Database igazgatója azt állította, hogy a webhely egyedülálló abban, hogy a mesterséges intelligencia kockázatainak és ártalmainak valós hatásaira összpontosít – nem csak a szoftverek sebezhetőségeire és hibáira.

A szervezet jelenleg összegyűjti a médiában megjelent eseményeket, és felülvizsgálja a Twitteren az emberek által jelentett problémákat. Az AI Incident Database 250 egyedi incidenst naplózott a ChatGPT 2022 novemberi megjelenése előtt, és most több mint 600 egyedi eseményt sorol fel.

A mesterséges intelligencia okozta problémák idővel történő nyomon követése érdekes tendenciákat tár fel, és lehetővé teheti az emberek számára, hogy megértsék a technológia valós, jelenlegi ártalmait.

A George Washington Egyetem csarnoka felfedte, hogy az adatbázisban szereplő jelentések nagyjából fele a generatív mesterséges intelligencia fogalmához kapcsolódik. Némelyikük „vicces, buta dolog”, mint pl agyafúrt termékek Az Amazonon a következő címmel értékesítették: „Nem tudom teljesíteni ezt a kérést” – ez egyértelmű jele annak, hogy az eladó nagy nyelvi modellt használt a leírások írásához – vagy a mesterséges intelligencia által generált spam egyéb esetei. Néhányan azonban „igazán lehangolóak és komolyak” – például egy Cruise robotaxi, amely egy San Franciscó-i balesetben elrohan és a kerekei alá vonszol egy nőt.

„Jelenleg a mesterséges intelligencia többnyire vadnyugat, és az a hozzáállás, hogy gyorsan megyünk, és megtörjük a dolgokat” – kesergett. Nem világos, hogy a technológia hogyan formálja a társadalmat, és a csapat reméli, hogy az AI Incident Database betekintést nyújthat a visszaélések módjaiba, és rávilágít a nem kívánt következményekre – abban a reményben, hogy a fejlesztők és a döntéshozók jobban tájékozottak, hogy javíthassák modelleiket vagy szabályozhassák. a legégetőbb kockázatokat.

„Nagyon nagy a hírverés. Az emberek egzisztenciális kockázatról beszélnek. Biztos vagyok benne, hogy a mesterséges intelligencia nagyon komoly kockázatokat jelenthet az emberi civilizációra nézve, de világos számomra, hogy ezek a valósabb kockázatok némelyike ​​– például az önvezető autókkal kapcsolatos sok sérülés, vagy az elfogultság állandósítása használt algoritmusok révén. a fogyasztói pénzügyekben vagy a foglalkoztatásban. Ezt látjuk.”

– Tudom, hogy sok mindenről lemaradunk, igaz? Nem mindenről számol be vagy rögzít a média. Sokszor előfordulhat, hogy az emberek nem is veszik észre, hogy az általuk tapasztalt károk egy mesterséges intelligencia okozta” – jegyezte meg Frase. „Arra számítok, hogy a fizikai sérülések sokat fognak növekedni. Azt látjuk, hogy [többnyire] pszichés és egyéb megfoghatatlan károk történnek a nagy nyelvi modellekkel – de ha egyszer megvan a generatív robotika, úgy gondolom, hogy a fizikai sérülések sokat fognak növekedni.”

Frase-t leginkább az aggasztja, hogy a mesterséges intelligencia hogyan csorbíthatja az emberi jogokat és a polgári szabadságjogokat. Úgy véli, hogy az AI-incidensek összegyűjtése megmutatja, hogy az irányelvek idővel biztonságosabbá tették-e a technológiát.

„Mérni kell a dolgokat, hogy helyrehozzuk a dolgokat” – tette hozzá Hall.

A szervezet folyamatosan keres önkénteseket, és jelenleg az incidensek rögzítésére és a tudatosság növelésére összpontosít. Frase hangsúlyozta, hogy a csoport tagjai nem mesterséges intelligencia ludditák: „Valószínűleg eléggé anti-AI-ellenesnek tűnünk, de nem vagyunk azok. Valójában használni akarjuk. Csak a jó dolgokat akarjuk.”

Hall egyetértett. „Ahhoz, hogy a technológia előrehaladjon, valakinek meg kell tennie a biztonságosabbá tételét” – mondta. ®

Időbélyeg:

Még több A regisztráció