Bill Gates: AI Chatbots podem ensinar crianças a ler em 18 meses

Bill Gates: AI Chatbots podem ensinar crianças a ler em 18 meses

Bill Gates: AI Chatbots Could Teach Children to Read in 18 Months PlatoBlockchain Data Intelligence. Vertical Search. Ai.

O empresário de tecnologia Wayne Chang afirma que desenvolveu uma ferramenta de IA, LLM Shield, que evita chatbots e modelos de linguagem grandes (LLMs) como ChatGPT de tomar segredos da empresa. O uso de ferramentas de IA tem aumentado ultimamente, levantando preocupações de que as empresas possam estar vulneráveis ​​a vazamentos de dados e ações judiciais.

De acordo com um relatório da Cyberhaven, Estima-se que 2.3% dos trabalhadores colocaram informações confidenciais da empresa no ChatGPT, enquanto 11% dos dados colados no chatbot são confidenciais.

Como resultado, muitas empresas, incluindo JP Morgan Chase & Co, alegadamente bloqueou o acesso dos funcionários à ferramenta.

Veja também: Os escritórios do Metaverse estão voltando?

O LLM Shield foi projetado para proteger empresas e governos de fazer upload de dados confidenciais para ferramentas com tecnologia de IA, como ChatGPT e Bardo.

Chang disse à Fox Business que quando o ChatGPT da OpenAI foi lançado no mercado em novembro, ele viu o quão poderoso seria e que veio “com grandes, grandes riscos”.

“As coisas vão piorar muito rapidamente – isso é positivo e negativo”, disse ele.

“Meu foco aqui é que quero ter certeza de que podemos direcionar positivamente a IA em uma direção positiva e evitar o lado negativo o máximo possível.”

Tecnologia para controlar a tecnologia

Lançado apenas na semana passada, o LLM Shield alerta as organizações sempre que há uma tentativa de fazer upload de informações confidenciais. De acordo com a Fox Business, os administradores podem definir proteções para os tipos de dados que a empresa deseja proteger.

Qualquer tentativa de carregar essas informações solicitará que o LLM Shield alerte os usuários de que eles estão prestes a enviar dados confidenciais e ofuscar os detalhes para que o conteúdo seja útil, mas não legível para humanos.

Espera-se que o LLM Shield continue ficando mais inteligente, assim como as ferramentas de IA cujos poderes ele tem a tarefa de limitar. Ele também é atualizado como filtro de spam, portanto, à medida que mais bots chegam ao mercado, ele se atualiza automaticamente para fortalecer a proteção.

De acordo com Chang, há planos de lançar uma versão pessoal para download para uso doméstico.

Vazamentos de dados preocupam empresas

Este ano houve um boom no uso de ferramentas de IA pelas empresas, e é provável que olhemos para 2023 como o ano em que a revolução da IA ​​começou para valer.

No entanto, o influxo dessas ferramentas também levantou preocupações de que os trabalhadores possam vazar intencionalmente ou acidentalmente informações confidenciais para ferramentas com tecnologia de IA, como o ChatGPT.

O risco já existe. Samsung recentemente experimentou uma série de vazamentos de dados quando seus funcionários supostamente colaram um código-fonte em novos bots, o que poderia expor informações proprietárias.

Cada vez mais, os empregadores ficando nervoso sobre como sua equipe pode usar ferramentas de IA no trabalho. Algumas empresas já proibiram o uso do ChatGPT no trabalho, embora os funcionários ainda consigam contornar as restrições.

Em um memorando vazado, Walmart alertou os funcionários para não compartilhar informações confidenciais com o ChatGPT. O grupo disse que bloqueou anteriormente o chatbot devido a “atividade que representava risco para nossa empresa”.

A Amazon também alertou seus funcionários sobre o mesmo desafio. Seu advogado corporativo disse aos funcionários que a empresa já havia visto instâncias de respostas do ChatGPT semelhantes a Amazônia interna dados.

Funcionários sorrateiros

Como em países onde o ChatGPT é proibido, mas ainda é usado – China e partes da África, por exemplo – os funcionários não foram dissuadidos de usar a ferramenta baseada em IA em suas organizações.

A Pesquisa de aquário divulgado em fevereiro revelou que quase 70% dos funcionários estão usando o ChatGPT no trabalho sem o conhecimento de seus chefes.

O CEO da Cyberhaven, Howard Ting, disse à Axios que os funcionários sempre encontraram maneiras de escapar das proibições da rede corporativa que bloqueavam o acesso aos chatbots.

Ele disse que algumas empresas acreditavam que os funcionários não tinham acesso ao chatbot antes de sua empresa dizer o contrário.

“Os usuários podem usar um proxy para contornar muitas dessas ferramentas de segurança baseadas em rede”, revelou ele.

Carimbo de hora:

Mais de MetaNotícias