Miksi sinun on tiedettävä tekoälysi sukujuuret

Miksi sinun on tiedettävä tekoälysi sukujuuret

Miksi sinun on tiedettävä tekoälysi esi-isän PlatoBlockchain-tietoäly. Pystysuuntainen haku. Ai.

KOMMENTIT

Tekoäly (AI) muuttaa nopeasti lähes kaikkia jokapäiväisen elämämme osa-alueita, aina työskentelytavastamme tiedon nielemiseen ja siihen, miten päätämme johtajamme. Kuten mikä tahansa tekniikka, tekoäly on moraalitonta, mutta sitä voidaan käyttää edistämään yhteiskuntaa tai tuottaa haittaa.

Data on geenejä, jotka ohjaavat tekoälysovelluksia. Se on DNA ja RNA, jotka ovat kaikki kääritty yhdeksi. Kuten ohjelmistojärjestelmiä rakennettaessa usein sanotaan: "roskat sisään / roskat ulos". AI-tekniikka on vain niin tarkkaa, turvallista ja toimivaa kuin tietolähteet, joihin se luottaa. Avain sen varmistamiseen, että tekoäly täyttää lupauksensa ja välttää painajaiset, on kyky pitää roskat poissa ja estää niitä lisääntymästä ja replikoitumasta miljoonissa tekoälysovelluksissa.

Tätä kutsutaan datan alkuperäksi, emmekä voi odottaa toista päivää ottaaksemme käyttöön säädöt, jotka estävät tekoälystämme muodostumasta valtavaksi roskaksi.

Huono data johtaa tekoälymalleihin, jotka voivat levittää kyberturvallisuuden haavoittuvuuksia, väärää tietoa ja muita hyökkäyksiä maailmanlaajuisesti sekunneissa. Tämän päivän generatiivinen tekoäly (GenAI) -mallit ovat uskomattoman monimutkaisia, mutta pohjimmiltaan GenAI-mallit yksinkertaisesti ennustavat parhaan seuraavan tulostettavan datan, kun otetaan huomioon olemassa oleva aikaisempi data.

Tarkkuusmittaus

ChatGPT-tyyppinen malli arvioi sanajoukon, jotka muodostavat alkuperäisen kysymyksen, ja kaikki tähän mennessä mallin vastauksen sanat laskeakseen seuraavaksi parhaan tulostettavan sanan. Se tekee tämän toistuvasti, kunnes se päättää, että se on antanut tarpeeksi vastauksen. Oletetaan, että arvioit mallin kykyä yhdistää sanoja, jotka muodostavat hyvin muotoiltuja, kieliopillisesti oikeita lauseita, jotka ovat aiheeseen liittyviä ja yleisesti ottaen tärkeitä keskustelun kannalta. Siinä tapauksessa nykyiset mallit ovat hämmästyttävän hyviä - tarkkuuden mitta.

Sukella syvemmälle välittääkö tekoälyn tuottama teksti aina "oikeaa" tietoa ja osoittaa asianmukaisesti välitetyn tiedon luottamustason. Tämä paljastaa ongelmia, jotka johtuvat malleista, jotka ennustavat erittäin hyvin keskimäärin, mutta eivät niin hyvin reunatapauksissa – mikä edustaa kestävyysongelmaa. Se voi lisääntyä, kun tekoälymallien huonot tiedot tallennetaan verkkoon ja niitä käytetään tulevina harjoitustietoina näille ja muille malleille.

Huono tulos voi replikoitua sellaisessa mittakaavassa, jota emme ole koskaan nähneet, mikä aiheuttaa alaspäin suuntautuvan tekoälyn doom-silmukan.

Jos huono toimija halusi auttaa tätä prosessia, hän voisi tarkoituksella kannustaa ylimääräisen huonon datan tuottamiseen, tallentamiseen ja levittämiseen – mikä johtaisi siihen, että chatboteista tulee entistä enemmän väärää tietoa tai jotain niin ilkeää ja pelottavaa kuin auton autopilottimallit, jotka päättävät, että heidän täytyy käännä auto nopeasti oikealle huolimatta esineistä, jotka ovat tiellä, jos he "näkevät" eteensä erityisen muotoillun kuvan (tietenkin hypoteettisesti).

Kyberturvallisuusinfrastruktuurin tietoturvaviraston johtama ohjelmistokehitysteollisuus on vuosikymmenten jälkeen vihdoin toteuttamassa turvallinen suunnittelun mukaan puitteissa. Suunniteltu suojattu vaatii, että kyberturvallisuus on ohjelmistokehitysprosessin perusta, ja yksi sen ydinperiaatteista on vaatia jokaisen ohjelmistokehityskomponentin luetteloimista. ohjelmistojen materiaaliluettelo (SBOM) — vahvistaa turvallisuutta ja joustavuutta. Lopuksi, turvallisuus on korvaamassa nopeuden tärkeimpänä markkinoille pääsyn tekijänä.

Tekoälymallien turvaaminen

AI tarvitsee jotain vastaavaa. Tekoälyn palautesilmukka estää yleisiä aiempia kyberturvallisuuden puolustustekniikoita, kuten haittaohjelmien allekirjoitusten seurantaa, verkkoresurssien rajojen rakentamista tai ihmisten kirjoittaman koodin skannaamista haavoittuvuuksien varalta. Meidän on asetettava turvalliset tekoälymallit vaatimukseksi tekniikan lapsenkengissä, jotta tekoäly voidaan tehdä turvalliseksi kauan ennen Pandoran lippaan avaamista.

Joten miten ratkaisemme tämän ongelman? Meidän pitäisi ottaa sivu pois akateemisen maailmasta. Koulutamme opiskelijoita korkeasti kuratoimalla koulutustiedolla, joka on tulkittu ja välitetty heille opettajateollisuuden kautta. Jatkamme tätä lähestymistapaa aikuisten opettamiseen, mutta aikuisten odotetaan tekevän enemmän tietojen kuratointia itse.

Tekoälymallikoulutuksessa on käytettävä kaksivaiheista kuratoitua dataa. Aluksi tekoälyn perusmalleja koulutettaisiin nykyisillä menetelmillä käyttämällä valtavia määriä vähemmän kuratoituja tietojoukkoja. Nämä perussuuret kielimallit (LLM) vastaisivat suunnilleen vastasyntynyttä vauvaa. Perustason mallit koulutettaisiin sitten korkeasti kuratoiduilla tietojoukoilla, jotka ovat samankaltaisia ​​kuin lapsia opetetaan ja kasvatetaan aikuisiksi.

Pyrkimys rakentaa suuria, kuratoituja harjoitustietojoukkoja kaikentyyppisiä tavoitteita varten ei ole pieni. Tämä vastaa kaikkea sitä työtä, jota vanhemmat, koulut ja yhteiskunta tekevät tarjotakseen laadukkaan ympäristön ja laadukkaan tiedon lapsille, kun heistä kasvaa (toivottavasti) toimivia, lisäarvoa tuottavia yhteiskunnan tekijöitä. Tämä on ponnistustaso, joka vaaditaan laadukkaiden tietojoukkojen luomiseen laadukkaiden, hyvin toimivien, vähän korruptoituneiden tekoälymallien kouluttamiseksi, ja se voi johtaa siihen, että koko tekoäly ja ihmiset työskentelevät yhdessä opettaakseen tekoälymalleja olemaan hyviä tavoitetyössään. .

Tämän päivän tekoälyn koulutusprosessin tila osoittaa joitain merkkejä tästä kaksivaiheisesta prosessista. Mutta GenAI-teknologian ja alan lapsenkengistä johtuen liian paljon koulutusta käyttää vähemmän kuratoitua, ensimmäisen vaiheen lähestymistapaa.

Mitä tulee tekoälyn tietoturvaan, meillä ei ole varaa odottaa tuntia, puhumattakaan vuosikymmenestä. Tekoäly tarvitsee 23andMe-sovelluksen, joka mahdollistaa "algoritmien sukututkimuksen" täydellisen tarkastelun, jotta kehittäjät voivat ymmärtää täysin tekoälyn "perhehistorian" estääkseen kroonisten ongelmien replikoitumisen, tartuttamasta kriittisiä järjestelmiä, joihin luotamme joka päivä, ja aiheuttamasta taloudellista ja yhteiskunnallista haittaa. joka voi olla peruuttamatonta.

Kansallinen turvallisuutemme riippuu siitä.

Aikaleima:

Lisää aiheesta Pimeää luettavaa