OpenAI CEO 'føler sig forfærdeligt' efter ChatGPT lækker samtaler, betalingsoplysninger

OpenAI CEO 'føler sig forfærdeligt' efter ChatGPT lækker samtaler, betalingsoplysninger

OpenAI CEO 'feels awful' after ChatGPT leaks conversations, payment info PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Opdateret OpenAI CEO Sam Altman føler sig "forfærdelig" over, at ChatGPT lækkede nogle brugeres chathistorier i mandags, og beskyldte en open source-biblioteksfejl for fejlen.

I et par tweets indrømmede Altman fejl, som gjorde det muligt for nogle brugere at se uddrag af andres samtaler - ikke det fulde indhold, men de seneste titler - med spørgsmål-og-svar-bot.

"Vi havde et betydeligt problem i ChatGPT på grund af en fejl i et open source-bibliotek, som en rettelse nu er blevet frigivet til, og vi har netop afsluttet valideringen," Altman sagde.

"En lille procentdel af brugerne var i stand til at se titlerne på andre brugeres samtalehistorik. Vi har det forfærdeligt over det her."

På grund af buggykoden vil ChatGPT-brugere ikke kunne få adgang til de fleste af deres samtaler den 20. marts, han tilføjet.  

OpenAI planlægger også at følge op med en teknisk postmortem om bruddet på privatlivets fred, ifølge Altman. Den tidligere non-profit biz reagerede ikke på Registret's forespørgsler om, hvilket open source-bibliotek der indeholdt buggykoden, og hvor mange brugere der var berørt.

Der er endnu ikke noget bud på, hvornår rettelsen vil blive frigivet, og hvornår postmortem vil offentliggøres.

Mens brugere forståeligt nok er irriterede over samtalelækagen, fortalte Kasperskys ledende dataforsker Registret at ChatGPT-brugere bør læse det med småt - og glemme enhver illusion om privatliv.

"ChatGPT advarer ved login om, at 'samtaler kan blive gennemgået af vores AI-trænere'," sagde Vlad Tushkanov og bemærkede, at webdemoen og API'en til virksomheder bruger forskellige grænseflader. "Så fra begyndelsen burde brugerne ikke have haft nogen forventning om privatliv, når de brugte ChatGPT-webdemoen."

Kaspersky har følgende råd, tilføjede han: "Behandle enhver interaktion med en chatbot (eller enhver anden tjeneste, for den sags skyld) som en samtale med en fuldstændig fremmed. Du ved ikke, hvor indholdet ender, så undlad at afsløre personlige eller følsomme oplysninger om dig selv eller andre mennesker.”

I mellemtiden, se på det nye legetøj!

Torsdag offentliggjorde OpenAI udrulningen af ChatGPT plugins at forbinde chatbotten med tredjepartsapps, og dermed give chatbotten mulighed for at gøre ting som at bestille mad via Instacart på vegne af brugerne eller booke en flyrejse på Expedia. 

Plugins tillader også ChatGPT at få adgang til information i realtid, såsom aktiekurser og sportsresultater, eller virksomhedsdokumenter, der er gemt på din enhed - hvis du stoler på chatbotten med dem.

"Du kan installere plugins for at hjælpe med en lang række opgaver," Altman Tweetet. "Vi er spændte på at se, hvad udviklere skaber!"

Det er uden tvivl også datatyvene. ®

Opdateret for at tilføje den 24. marts

OpenAI har udsendt sin tekniske rapporten om dødsfald ind i fejlen, som vi får at vide var i et open source Redis-klientbibliotek kaldet redis-py. Det kan faktisk være dette denne programmeringsfejl.

I det væsentlige bruger OpenAI Redis til at cache brugerdata. Biz'en foretog en ændring af sine systemer kl. 0100 PT, 20. marts, som forårsagede en stigning i aktiviteten, der førte til, at cachen hostede de forkerte oplysninger op via denne klientbiblioteksfejl. Datalækket fortsatte fra det tidspunkt til 1000 PT den dag.

"Denne fejl dukkede kun op i Asyncio redis-py-klienten til Redis Cluster og er nu blevet rettet," skrev OpenAI.

Det viser sig, at mere end blot uddrag af chattitler blev lækket via denne fejl; nogle stykker af folks abonnementsbetalingsdetaljer blev også afsløret for andre såvel som muligvis deres åbningsbeskeder med chatbotten.

En del af ChatGPTs hjemmeside indeholder en log over ens samtaler med botten, og det var i den historiesidebjælke, at stumper af andre menneskers chats dukkede op.

OpenAI sagde:

Vi tog ChatGPT offline tidligere på ugen på grund af en fejl i et open source-bibliotek, som gjorde det muligt for nogle brugere at se titler fra en anden aktiv brugers chathistorik. Det er også muligt, at den første besked i en nyoprettet samtale var synlig i en andens chathistorik, hvis begge brugere var aktive omkring samme tid.

Efter dybere undersøgelser opdagede vi også, at den samme fejl kan have forårsaget utilsigtet synlighed af betalingsrelaterede oplysninger for 1.2 % af ChatGPT Plus-abonnenterne, som var aktive i løbet af et specifikt ni-timers vindue. I timerne før vi tog ChatGPT offline i mandags, var det muligt for nogle brugere at se en anden aktiv brugers for- og efternavn, e-mailadresse, betalingsadresse, de sidste fire cifre (kun) af et kreditkortnummer og kreditkortudløb dato. Fuldstændige kreditkortnumre blev ikke afsløret på noget tidspunkt.

Disse betalingsoplysninger blev lækket via e-mails med abonnementsbekræftelse, der gik til de forkerte personer den 20. marts, eller ved at brugere kiggede på deres abonnementsbetalingsoplysninger på ChatGPT-webstedet og så en fremmeds optegnelser i den tid, fejlen var aktiv. Vi har også hørt, at brugere kunne se andres navne og e-mailadresser på deres egne sider.

"Vi har henvendt os for at underrette berørte brugere om, at deres betalingsoplysninger muligvis er blevet afsløret. Vi er overbeviste om, at der ikke er nogen løbende risiko for brugernes data,” tilføjede OpenAI.

Tidsstempel:

Mere fra Registret