Bill Gates: i chatbot basati sull'intelligenza artificiale potrebbero insegnare ai bambini a leggere in 18 mesi

Bill Gates: i chatbot basati sull'intelligenza artificiale potrebbero insegnare ai bambini a leggere in 18 mesi

Bill Gates: i chatbot AI potrebbero insegnare ai bambini a leggere in 18 mesi PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

L'imprenditore tecnologico Wayne Chang afferma di aver sviluppato uno strumento di intelligenza artificiale, LLM Shield, che impedisce chatbot e modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT dall'appropriazione di segreti aziendali. L'uso di strumenti di intelligenza artificiale è aumentato negli ultimi tempi, sollevando la preoccupazione che le aziende possano essere vulnerabili a fughe di dati e azioni legali.

Secondo un rapporto di Rifugio informatico, si stima che il 2.3% dei lavoratori abbia inserito informazioni aziendali riservate in ChatGPT, mentre l'11% dei dati incollati nel chatbot è riservato.

Di conseguenza, molte aziende, tra cui JP Morgan Chase & Co, hanno riferito bloccato l'accesso dei dipendenti allo strumento.

Leggi anche: Gli uffici Metaverse stanno tornando?

LLM Shield è progettato per proteggere aziende e governi dal caricamento di dati sensibili su strumenti basati sull'intelligenza artificiale come ChatGPT e Vate.

Chang ha detto a Fox Business che quando ChatGPT di OpenAI è stato rilasciato sul mercato a novembre, ha visto quanto sarebbe stato potente e che è arrivato "con grandi, grandi rischi".

"Le cose si intensificheranno abbastanza rapidamente - questo è sia positivo che negativo", ha detto.

"Il mio obiettivo qui è che voglio assicurarmi di poter guidare positivamente l'IA in una direzione positiva ed evitare il più possibile il lato negativo".

Tecnologia per controllare la tecnologia

Rilasciato solo la scorsa settimana, LLM Shield avvisa le organizzazioni ogni volta che si tenta di caricare informazioni sensibili. Secondo Fox Business, gli amministratori possono impostare barriere per i tipi di dati che l'azienda desidera proteggere.

Qualsiasi tentativo di caricare tali informazioni richiederà a LLM Shield di avvisare gli utenti che stanno per inviare dati sensibili e di offuscare i dettagli in modo che il contenuto sia utile ma non leggibile per gli esseri umani.

Si prevede che LLM Shield continuerà a diventare più intelligente, proprio come gli strumenti di intelligenza artificiale i cui poteri ha il compito di limitare. Si aggiorna anche come filtro antispam, quindi man mano che più bot arrivano sul mercato, si aggiornerà automaticamente per rafforzare la protezione.

Secondo Chang, ci sono piani per rilasciare una versione personale che le persone possono scaricare per uso domestico.

Fughe di dati preoccupano le aziende

Quest'anno ha visto un boom nell'uso degli strumenti di intelligenza artificiale da parte delle aziende ed è probabile che guarderemo indietro al 2023 come l'anno in cui la rivoluzione dell'IA è iniziata sul serio.

Tuttavia, l'afflusso di questi strumenti ha anche sollevato la preoccupazione che i lavoratori possano divulgare volontariamente o accidentalmente informazioni sensibili a strumenti basati sull'intelligenza artificiale come ChatGPT.

Il rischio c'è già. Samsung ha recentemente sperimentato una serie di fughe di dati quando i suoi dipendenti avrebbero incollato un codice sorgente in nuovi bot, che potrebbero potenzialmente esporre informazioni proprietarie.

Sempre più spesso lo sono i datori di lavoro innervosirsi su come il loro personale potrebbe utilizzare gli strumenti di intelligenza artificiale al lavoro. Alcune aziende hanno già vietato l'uso di ChatGPT al lavoro, sebbene i dipendenti continuino a trovare la strada per aggirare le restrizioni.

In un promemoria trapelato, Walmart ha avvertito i dipendenti di non condividere informazioni riservate con ChatGPT. Il gruppo ha affermato di aver precedentemente bloccato il chatbot a causa di "attività che presentavano rischi per la nostra azienda".

Amazon ha anche avvertito i suoi dipendenti della stessa sfida. Il suo legale aziendale ha detto ai dipendenti che la società aveva già visto casi di risposte simili a ChatGPT Amazzonia interna dati.

Dipendenti subdoli

Come nei paesi in cui ChatGPT è proibito ma ancora utilizzato – Cina e parti dell'Africa, ad esempio: i dipendenti non sono stati scoraggiati dall'utilizzare lo strumento basato sull'intelligenza artificiale nelle loro organizzazioni.

A Indagine sull'acquario rilasciato a febbraio ha rivelato che quasi il 70% dei dipendenti utilizza ChatGPT al lavoro all'insaputa dei propri capi.

Il CEO di Cyberhaven, Howard Ting, ha dichiarato ad Axios che i dipendenti hanno sempre trovato il modo di eludere i divieti della rete aziendale che bloccano l'accesso ai chatbot.

Ha detto che alcune aziende credevano che i dipendenti non avessero accesso al chatbot prima che la sua azienda dicesse loro il contrario.

"Gli utenti possono utilizzare un proxy per aggirare molti di questi strumenti di sicurezza basati sulla rete", ha rivelato.

Timestamp:

Di più da MetaNotizie