Kuinka DARPA haluaa ajatella tekoälyn perusteita uudelleen sisällyttääkseen luottamuksen

Kuinka DARPA haluaa ajatella tekoälyn perusteita uudelleen sisällyttääkseen luottamuksen

Kuinka DARPA haluaa harkita tekoälyn perusteita uudelleen sisällyttääkseen PlatoBlockchain Data Intelligencen. Pystysuuntainen haku. Ai.

Kommentti Luottaisitko elämäsi tekoälylle?

Tekoälyn nykytila ​​on vaikuttava, mutta sen näkeminen yleisesti älykkään rajalla on liioittelua. Jos haluat saada käsityksen siitä, kuinka hyvin tekoälybuumi etenee, vastaa tähän kysymykseen: Luotatko tekoälyyn?

Googlen Bard- ja Microsoftin ChatGPT-pohjaiset Bing-suurkielimallit sekä tehty luuloisia virheitä julkaisuesityksessään, jotka olisi voitu välttää nopealla verkkohaulla. LLM:itä on myös havaittu ymmärtää tosiasiat väärin ja virheellisten sitaattien työntäminen pois.

Se on yksi asia, kun nuo tekoälyt ovat vain vastuussa esimerkiksi Bingin tai Bardin käyttäjien viihdyttämisestä, DARPAn Matt Turek, Information Innovation Officen apulaisjohtaja, kertoo meille. Se on kokonaan toinen asia, kun ihmishenkiä on edessä, minkä vuoksi Turekin virasto on käynnistänyt aloitteen nimeltä AI Forward yrittääkseen vastata kysymykseen, mitä tarkoittaa sellaisen tekoälyjärjestelmän rakentaminen, johon voimme luottaa.

Luottamus on…?

Haastattelussa Rekisteri, Turek sanoi, että hän haluaa ajatella luotettavan tekoälyn rakentamista maa- ja vesirakentamisen metaforalla, joka sisältää myös paljon luottamuksellista teknologiaa: siltojen rakentamista.

"Emme enää rakenna siltoja yrityksen ja erehdyksen avulla", Turek sanoo. "Ymmärrämme perusfysiikan, perustavan materiaalitieteen ja järjestelmätekniikan sanoaksemme, että minun on pystyttävä ylittämään tämä etäisyys ja kantamaan tällaista painoa", hän lisää.

Turek sanoo, että tällä tiedolla aseistettuna insinöörisektori on pystynyt kehittämään standardeja, jotka tekevät siltojen rakentamisesta yksinkertaista ja ennustettavaa, mutta meillä ei ole sitä tällä hetkellä tekoälyn kanssa. Itse asiassa olemme vielä pahemmassa paikassa kuin yksinkertaisesti standardien puuttuminen: rakentamamme tekoälymallit yllättävät joskus meidät, ja se on huonoa, Turek sanoo. 

”Emme täysin ymmärrä malleja. Emme ymmärrä, mitä he tekevät hyvin, emme ymmärrä nurkkatapauksia, vikatiloja… mihin se voi johtaa, että asiat menevät pieleen sellaisella nopeudella ja mittakaavassa, jota emme ole ennen nähneet." 

Reg Lukijoiden ei tarvitse kuvitella apokalyptisiä skenaarioita, joissa tekoäly (AGI) alkaa tappaa ihmisiä ja käydä sotaa saadakseen Turekin pointin selväksi. "Emme tarvitse AGI:tä, jotta asiat menevät merkittävästi pieleen", Turek sanoo. Hän mainitsee markkinoiden nopeat romahdukset, kuten Ison-Britannian punnan vuoden 2016 pudotuksen huono algoritminen päätöksenteko, yhtenä esimerkkinä. 

Sitten on ohjelmistot, kuten Teslan Autopilot, ilmeisesti tekoäly, joka on suunniteltu ajamaan autoa, jonka väitetään olevan yhteydessä 70 prosenttia onnettomuuksista, joihin liittyy automatisoitua kuljettajaa avustavaa tekniikkaa. Kun tällaisia ​​onnettomuuksia tapahtuu, Tesla ei syytä tekoälyä, Turek kertoo, että kuljettajat ovat vastuussa siitä, mitä Autopilot tekee. 

Tällä päättelyllä on reilua sanoa, että edes Tesla ei luota omaan tekoälyänsä. 

Kuinka DARPA haluaa siirtää tekoälyä… Eteenpäin

"Suureiden ohjelmistojärjestelmien nopeus voi luoda haasteita ihmisen valvonnalle", Turek sanoo, minkä vuoksi DARPA käynnisti uusimman tekoälyaloitteensa, AI Forward, aikaisemmin tänä vuonna.

Jonkin sisällä esitys Helmikuussa Turekin pomo tohtori Kathleen Fisher selitti, mitä DARPA haluaa saavuttaa AI Forwardin avulla, eli rakentaa tekoälyn kehittämiseen samanlainen ymmärryspohja kuin insinöörit ovat kehittäneet omien standardiensa avulla.

Fisher selitti esityksessään, että DARPA näkee tekoälyn luottamuksen integroivana ja että minkä tahansa luottamuksen arvoisen tekoälyn pitäisi kyetä kolmeen asiaan:

  • Toimivat asiantuntevasti, mitä me ehdottomasti en ole vielä keksinyt,
  • Asianmukainen vuorovaikutus ihmisten kanssa, mukaan lukien viestintä, miksi se tekee mitä tekee (katso edellisestä kohdasta kuinka hyvin se menee),
  • Käyttäytyminen eettisesti ja moraalisesti, mikä Fisherin mukaan sisältäisi kyvyn määrittää, ovatko ohjeet eettisiä vai eivät, ja reagoida niiden mukaisesti. 

Luotettavan tekoälyn määritteleminen on yksi asia. Sinne pääseminen on hieman enemmän työtä. Tätä varten DARPA sanoi aikovansa investoida energiansa, aikaansa ja rahansa kolme aluetta: Perusteorioiden rakentaminen, oikeiden tekoälysuunnittelukäytäntöjen jäsentäminen ja standardien kehittäminen ihmisen ja tekoälyn ryhmittelylle ja vuorovaikutukselle. 

AI Forward, jota Turek kuvailee vähemmän ohjelmaksi, vaan enemmänkin yhteisöaloitteeksi, aloittaa kesätyöpajoilla kesäkuussa ja heinäkuun lopulla. Niiden tarkoituksena on tuoda julkisen ja yksityisen sektorin ihmisiä yhteen auttamaan näitä kolmea tekoälyinvestointia. alueilla. 

Turek sanoo, että DARPAlla on ainutlaatuinen kyky "saattaa [yhteen] laaja joukko tutkijoita useista yhteisöistä, tarkastella ongelmaa kokonaisvaltaisesti, tunnistaa ... pakottavia etenemistapoja ja sitten seurata sitä investoinneilla, jotka DARPA uskoo voivan johtaa kohti muutosteknologioita."

Kaikki, jotka haluavat heittää hattunsa kehään osallistua kahteen ensimmäiseen AI Forward -työpajaan – anteeksi – ne ovat jo täynnä. Turek ei paljastanut mitään tarkempia tietoja siitä, ketkä aikovat olla paikalla, mutta sanoi vain, että odotetaan useita satoja osallistujia, joilla on "erilainen tekninen tausta [ja] näkökulmia".

Miltä luotettava puolustus tekoäly näyttää?

Jos ja kun DARPA onnistuu konkretisoimaan tekoälyluottamusmalliaan, kuinka se tarkalleen käyttäisi kyseistä tekniikkaa? 

Kyberturvallisuussovellukset ovat ilmeisiä, Turek sanoo, koska luotettavaan tekoälyyn voidaan luottaa oikeiden päätösten tekemisessä sellaisessa mittakaavassa, johon ihmiset eivät pystyisi reagoimaan. Suuren kielimallin puolella rakennetaan tekoälyä, jonka voidaan luottaa käsittelevän asianmukaisesti luokiteltuja tietoja tai sulattavan ja tiivistävän raportteja tarkasti "jos voimme poistaa nuo hallusinaatiot", Turek lisää.

Ja sitten on taistelukenttä. Tekoäly ei suinkaan ole vain vahingoittamiseen käytetty työkalu, vaan sitä voitaisiin muuttaa hengenpelastussovelluksiksi esimerkiksi tutkimushankkeilla Hetkessä, tutkimushanke Turek tukee nopeaa päätöksentekoa vaikeissa tilanteissa. 

In The Momentin tavoitteena on tunnistaa "avainattribuutit, jotka ovat ihmisen luotetun päätöksenteon taustalla dynaamisissa olosuhteissa ja jotka edustavat näitä ominaisuuksia laskennallisesti", kuten DARPA kuvaa sitä projektin sivulla. 

"[In The Moment] on todella perustavanlaatuinen tutkimusohjelma siitä, miten luottamuksen mallintaa ja kvantifioida ja kuinka rakentaa niitä ominaisuuksia, jotka johtavat luottamukseen ja järjestelmiin", Turek sanoo.

Näillä ominaisuuksilla varustettua tekoälyä voitaisiin käyttää lääketieteellisten erottelupäätösten tekemiseen taistelukentällä tai katastrofitilanteissa.

DARPA haluaa valkoiset kirjat seuraavan molempia sen AI Forward -kokouksia tänä kesänä, mutta sieltä eteenpäin on päästävä määrittelyvaiheen ohi ja kohti toteutumista, mikä voi varmasti kestää hetken. 

"DARPA tekee sijoituksia kokouksista", Turek kertoo. "Näiden investointien määrä tai koko riippuu siitä, mitä kuulemme", hän lisää. ®

Aikaleima:

Lisää aiheesta Rekisteri