Bill Gates: AI Chatbots kunne lære børn at læse på 18 måneder

Bill Gates: AI Chatbots kunne lære børn at læse på 18 måneder

Bill Gates: AI Chatbots kunne lære børn at læse på 18 måneder PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Teknikentreprenøren Wayne Chang hævder, at han har udviklet et kunstig intelligens-værktøj, LLM Shield, der forhindrer chatbots og store sprogmodeller (LLM'er) som f.eks. ChatGPT fra at tage firmahemmeligheder. Brugen af ​​AI-værktøjer har været stigende på det seneste, hvilket har givet anledning til bekymring for, at virksomheder kan være sårbare over for datalæk og retssager.

Ifølge en rapport fra Cyberhaven, anslået 2.3 % af arbejderne har lagt fortrolig virksomhedsinformation ind i ChatGPT, mens 11 % af data indsat i chatbotten er fortrolige.

Som et resultat har mange virksomheder, herunder JP Morgan Chase & Co efter sigende blokeret medarbejders adgang til værktøjet.

Læs også: Er Metaverse-kontorer på vej tilbage?

LLM Shield er designet til at beskytte virksomheder og regeringer mod at uploade følsomme data til AI-drevne værktøjer som ChatGPT og Bard.

Chang fortalte Fox Business, at da OpenAI's ChatGPT blev frigivet til markedet i november, så han, hvor kraftfuldt det ville være, og at det kom "med store, store risici."

"Tingene vil eskalere ret hurtigt - det er både positivt og negativt," sagde han.

"Mit fokus her er, at jeg vil sikre mig, at vi positivt kan styre AI i en positiv retning og undgå ulemperne så meget som muligt."

Teknologi til at styre teknologi

LLM Shield, der først blev udgivet i sidste uge, advarer organisationer, hver gang der er et forsøg på at uploade følsomme oplysninger. Ifølge Fox Business kan administratorer sætte autoværn for, hvilke typer data virksomheden ønsker at beskytte.

Ethvert forsøg på at uploade sådanne oplysninger vil få LLM Shield til at advare brugerne om, at de er ved at sende følsomme data, og sløre detaljer, så indholdet er nyttigt, men ikke læseligt for mennesker.

LLM Shield forventes at blive ved med at blive smartere, ligesom AI-værktøjerne, hvis kræfter det har til opgave at begrænse. Det opdaterer også som spamfilter, så efterhånden som flere bots kommer på markedet, vil det automatisk opdatere sig selv for at styrke beskyttelsen.

Ifølge Chang er der planer om at frigive en personlig version, som enkeltpersoner kan downloade til hjemmebrug.

Datalækage bekymrer virksomheder

I år har virksomheder set et boom i brugen af ​​AI-værktøjer, og det er sandsynligt, at vi vil se tilbage på 2023 som året, hvor AI-revolutionen for alvor begyndte.

Tilstrømningen af ​​disse værktøjer har dog også givet anledning til bekymring for, at arbejdere frivilligt eller ved et uheld kan lække følsomme oplysninger til AI-drevne værktøjer som ChatGPT.

Risikoen er der allerede. Samsung oplevede for nylig en række datalæk, da dets medarbejdere angiveligt indsatte en kildekode i nye bots, som potentielt kunne afsløre proprietære oplysninger.

I stigende grad er arbejdsgiverne det bliver nervøs om, hvordan deres medarbejdere kan bruge AI-værktøjer på arbejdet. Nogle virksomheder har allerede forbudt brugen af ​​ChatGPT på arbejdspladsen, selvom ansatte stadig finder vej uden om restriktionerne.

I et lækket notat, Walmart har advaret medarbejdere om ikke at dele fortrolige oplysninger med ChatGPT. Gruppen sagde, at den tidligere blokerede chatbotten på grund af "aktivitet, der udgør en risiko for vores virksomhed."

Amazon har også advaret sine ansatte om samme udfordring. Dets virksomhedsadvokat fortalte medarbejderne, at virksomheden allerede havde set tilfælde af ChatGPT-svar, der lignede intern Amazon data.

Luskede medarbejdere

Som i lande, hvor ChatGPT er forbudt, men stadig bruges – Kina og dele af Afrika, for eksempel – medarbejdere er ikke blevet afskrækket fra at bruge det AI-drevne værktøj i deres organisationer.

A Fishbowl undersøgelse udgivet i februar afslørede, at næsten 70% af medarbejderne bruger ChatGPT på arbejdet uden deres chefers viden.

Cyberhavens administrerende direktør Howard Ting fortalte Axios, at medarbejderne altid fandt måder at unddrage virksomhedens netværksforbud, der blokerer adgang til chatbots.

Han sagde, at nogle virksomheder mente, at ansatte ikke havde adgang til chatbotten, før hans firma fortalte dem andet.

"Brugere kan bruge en proxy til at komme rundt om mange af disse netværksbaserede sikkerhedsværktøjer," afslørede han.

Tidsstempel:

Mere fra MetaNews