Tekoälyn kolme suurinta tietosuojaongelmaa nykyään – The Daily Hodl

Tekoälyn kolme suurinta tietosuojaongelmaa nykyään – The Daily Hodl

HodlX-vierasviesti  Lähetä postisi

 

Tekoäly (AI) on aiheuttanut hurjaa jännitystä niin kuluttajien kuin yritystenkin keskuudessa - intohimoinen usko siihen, että LLM:t (suuret kielimallit) ja työkalut, kuten ChatGPT, muuttavat tapaamme opiskella, työskennellä ja elää.

Mutta aivan kuten Internetin alkuaikoina, käyttäjät hyppäävät mukaan miettimättä, miten heidän henkilökohtaisia ​​tietojaan käytetään -ja miten tämä voi vaikuttaa heidän yksityisyytensä.

Tekoälyavaruudessa on jo ollut lukemattomia esimerkkejä tietomurroista. Maaliskuussa 2023 OpenAI otti väliaikaisesti ChatGPT:n offline "merkittävän" virheen jälkeen käyttäjät pystyivät näkemään tuntemattomien keskusteluhistorian.

Sama vika tarkoitti tilaajien maksutietoja - mukaan lukien nimet, sähköpostiosoitteet ja osittaiset luottokorttinumerot - olivat myös julkisia.

Syyskuussa 2023 huikeat 38 teratavua Microsoftin dataa oli vahingossa vuotanut työntekijä, ja kyberturvallisuusasiantuntijat varoittivat, että tämä olisi voinut antaa hyökkääjille mahdollisuuden tunkeutua AI-malleihin haitallisella koodilla.

Tutkijat ovat myös pystyneet manipuloida AI-järjestelmiä paljastamaan luottamuksellisia tietoja.

Vain muutamassa tunnissa Robust Intelligence -niminen ryhmä pystyi pyytämään henkilökohtaisia ​​tunnistetietoja Nvidia-ohjelmistosta ja ohittamaan suojatoimenpiteet, jotka oli suunniteltu estämään järjestelmää keskustelemasta tietyistä aiheista.

Kaikista näistä skenaarioista opittiin, mutta jokainen rikkomus havainnollistaa voimakkaasti haasteita, jotka on voitettava, jotta tekoälystä tulisi luotettava ja luotettava voima elämässämme.

Gemini, Googlen chatbot, jopa myöntää, että ihmiset käsittelevät kaikki keskustelut - korostaa järjestelmän avoimuuden puutetta.

"Älä kirjoita mitään, mitä et halua arvioida tai käytettävän", sanoo varoitus käyttäjille.

Tekoäly on nopeasti siirtymässä pidemmälle kuin työkalu, jota opiskelijat käyttävät läksyissään tai joita turistit luottavat saadakseen suosituksia Rooman matkan aikana.

Arkaluonteiset keskustelut ovat yhä enemmän riippuvaisia ​​siitä - ja ruokkimme kaikkea lääketieteellisistä kysymyksistä työaikatauluihimme.

Tämän vuoksi on tärkeää ottaa askel taaksepäin ja pohtia kolmea tärkeintä tekoälyn kohtaamaa tietosuojaongelmaa ja miksi ne ovat tärkeitä meille kaikille.

1. Kehotteet eivät ole yksityisiä

ChatGPT:n kaltaiset työkalut muistavat aiemmat keskustelut voidakseen palata niihin myöhemmin. Vaikka tämä voi parantaa käyttökokemusta ja auttaa kouluttamaan LLM:itä, siihen liittyy riskejä.

Jos järjestelmä on onnistuneesti hakkeroitu, on olemassa todellinen vaara, että kehotteet paljastuvat julkisella foorumilla.

Mahdollisesti kiusallisia yksityiskohtia käyttäjän historiasta voi vuotaa sekä kaupallisesti arkaluonteisia tietoja, kun tekoälyä käytetään työtarkoituksiin.

Kuten olemme nähneet Googlelta, myös sen kehitystiimi voi tarkistaa kaikki lähetykset.

Samsung ryhtyi toimiin tämän suhteen toukokuussa 2023, kun se kielsi työntekijöitä kokonaan käyttämästä generatiivisia tekoälytyökaluja. Se tuli työntekijän jälkeen ladattu luottamuksellinen lähdekoodi ChatGPT:lle.

Teknologiajätti oli huolissaan siitä, että näitä tietoja olisi vaikea hakea ja poistaa, mikä tarkoittaa, että IP (immateriaalioikeus) voisi päätyä leviämään suurelle yleisölle.

Apple, Verizon ja JPMorgan ovat ryhtyneet vastaaviin toimiin, ja raporttien mukaan Amazon aloitti tehoiskun sen jälkeen, kun ChatGPT:n vastaukset olivat samankaltaisia ​​​​omien sisäisten tietojen kanssa.

Kuten näet, huolenaiheet ulottuvat muuhunkin kuin tietomurron sattuessa tapahtuvaan, vaan siihen, että tekoälyjärjestelmiin syötettyä tietoa voitaisiin käyttää uudelleen ja jakaa laajemmalle yleisölle.

OpenAI:n kaltaiset yritykset ovat jo päin useita oikeusjuttuja väitteiden vuoksi, että heidän chatbottejaan on koulutettu käyttämällä tekijänoikeuksilla suojattua materiaalia.

2. Organisaatioiden kouluttamat mukautetut tekoälymallit eivät ole yksityisiä

Tämä vie meidät siististi seuraavaan kohtaan - vaikka yksilöt ja yritykset voivat luoda mukautettuja LLM-mallejaan omien tietolähteidensä perusteella, ne eivät ole täysin yksityisiä, jos ne ovat ChatGPT:n kaltaisen alustan rajoissa.

Loppujen lopuksi ei ole mahdollista tietää, käytetäänkö syötteitä näiden massiivisten järjestelmien kouluttamiseen - tai voidaanko henkilökohtaisia ​​tietoja käyttää tulevissa malleissa.

Kuten palapeli, useista lähteistä peräisin olevat tietopisteet voidaan koota yhteen kattavan ja huolestuttavan yksityiskohtaisen käsityksen jonkun henkilöllisyydestä ja taustasta.

Tärkeimmät alustat eivät välttämättä myöskään pysty tarjoamaan yksityiskohtaisia ​​selityksiä siitä, kuinka nämä tiedot tallennetaan ja käsitellään, eivätkä ne voi poistaa käytöstä ominaisuuksia, joista käyttäjä ei pidä.

Sen lisäksi, että tekoälyjärjestelmät reagoivat käyttäjän kehotteisiin, ne pystyvät yhä useammin lukemaan rivien välistä ja päättelemään kaiken henkilön sijainnista persoonallisuuksiin.

Tietoturvaloukkauksella voi olla vakavia seurauksia. Uskomattoman hienostuneita tietojenkalasteluhyökkäyksiä voitiin järjestää - ja käyttäjille kohdistettu tieto, jonka he olivat syöttäneet luottamuksellisesti tekoälyjärjestelmään.

Muita mahdollisia skenaarioita ovat, että näitä tietoja käytetään jonkun henkilöllisyyden olettamiseen, olipa kyse sitten pankkitilin avaamissovelluksista tai deepfake-videoista.

Kuluttajien on pysyttävä valppaina, vaikka he eivät itse käyttäisi tekoälyä. Tekoälyä käytetään yhä enemmän valvontajärjestelmien tehostamiseen ja kasvojentunnistustekniikan parantamiseen julkisilla paikoilla.

Jos tällaista infrastruktuuria ei ole perustettu todella yksityiseen ympäristöön, lukemattomien kansalaisten kansalaisvapauksia ja yksityisyyttä voidaan loukata heidän tietämättään.

3. Yksityisiä tietoja käytetään tekoälyjärjestelmien kouluttamiseen

On huolestuttavaa, että suuret tekoälyjärjestelmät ovat keränneet älykkyyttään selailemalla lukemattomia verkkosivuja.

Arvioiden mukaan ChatGPT:n kouluttamiseen käytettiin 300 miljardia sanaa - se on 570 gigatavua dataa - kirjoja ja Wikipedia-merkintöjä tietoaineistojen joukossa.

Algoritmien tiedetään myös riippuvan sosiaalisen median sivuista ja verkkokommenteista.

Joidenkin näistä lähteistä voit väittää, että näiden tietojen omistajilla olisi ollut kohtuullinen odotus yksityisyydestä.

Mutta tässä on asiaa - monet työkalut ja sovellukset, joiden kanssa olemme vuorovaikutuksessa päivittäin, ovat jo vahvasti tekoälyn vaikutteita - ja reagoida käyttäytymiseemme.

iPhonesi Face ID käyttää tekoälyä seuraamaan hienovaraisia ​​muutoksia ulkonäössäsi.

TikTokin ja Facebookin tekoälypohjaiset algoritmit tekevät sisältösuosituksia aiemmin katsomiesi leikkeiden ja viestien perusteella.

Ääniavustajat, kuten Alexa ja Siri, ovat myös voimakkaasti riippuvaisia ​​koneoppimisesta.

Siellä on huimaava joukko tekoälyyrityksiä, ja jokaisella on oma tarkoitus. Jotkut ovat kuitenkin läpinäkyvämpiä kuin toiset siitä, miten käyttäjätietoja kerätään, tallennetaan ja sovelletaan.

Tämä on erityisen tärkeää, koska tekoäly vaikuttaa terveydenhuollon alalla - lääketieteellisestä kuvantamisesta ja diagnooseista kirjaamiseen ja lääkkeisiin.

Viime vuosien tietosuojaskandaaleihin joutuneista Internet-yrityksistä on otettava opiksi.

Flo, naisten terveyssovellus, oli syytetty sääntelijät jakavat intiimejä tietoja käyttäjistään Facebookin ja Googlen kaltaisille 2010-luvulla.

Minne menemme täältä

Tekoälyllä tulee olemaan lähtemätön vaikutus meidän kaikkien elämään tulevina vuosina. LLM:t paranevat päivä päivältä, ja uusia käyttötapauksia ilmaantuu jatkuvasti.

On kuitenkin olemassa todellinen riski, että sääntelijöiden on vaikea pysyä perässä, kun ala etenee huimaa vauhtia.

Ja tämä tarkoittaa, että kuluttajien on alettava turvata omia tietojaan ja seurata niiden käyttöä.

Hajauttamisella voi olla tässä tärkeä rooli ja se estää suuria tietomääriä joutumasta suurten alustojen käsiin.

DePIN-verkot (hajautetut fyysiset infrastruktuuriverkot) voivat varmistaa, että jokapäiväiset käyttäjät kokevat tekoälyn kaikki edut ilman, että heidän yksityisyytensä vaarantuu.

Salatut kehotteet voivat tarjota paljon yksilöllisempiä tuloksia, mutta yksityisyyttä suojelevat LLM:t varmistavat, että käyttäjät voivat hallita tietojaan koko ajan - ja suoja sen väärinkäytöltä.


Chris Were on yhtiön toimitusjohtaja Verida, hajautettu, itsenäinen tietoverkko, joka antaa yksilöille mahdollisuuden hallita digitaalista identiteettiään ja henkilötietojaan. Chris on australialainen teknologiayrittäjä, joka on viettänyt yli 20 vuotta innovatiivisten ohjelmistoratkaisujen kehittämiseen.

 

Tarkista HodlX: n uusimmat otsikot

Seuraa meitä Twitter Facebook Telegram

Tutustu Viimeisimmät teollisuuden ilmoitukset  

Tekoälyn kolme suurinta tietosuojaongelmaa nykyään – Daily Hodl PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Vastuuvapauslauseke: Daily Hodlissa ilmaistuja mielipiteitä ei ole sijoitusneuvonta. Sijoittajien tulisi tehdä asianmukaista huolellisuuttaan ennen kuin ne tekevät suuria riskejä Bitcoinin, kriittisen tai digitaalisen omaisuuden sijoituksille. Huomaa, että siirrot ja kaupat ovat omalla vastuullasi, ja mahdolliset menetykset ovat sinun vastuullasi. Daily Hodl ei suosittele salauksen tai digitaalisten varojen ostamista tai myymistä eikä Daily Hodl sijoitusneuvoja. Huomaa, että Daily Hodl osallistuu affiliate markkinointiin.

Luotu kuva: Midjourney

Aikaleima:

Lisää aiheesta Daily Hodl