LLMs como ChatGPT vazam dados confidenciais persistentemente

LLMs como ChatGPT vazam dados confidenciais persistentemente

LLMs como ChatGPT vazam persistentemente dados confidenciais PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Em um estudo pioneiro, uma equipe da Universidade da Carolina do Norte, Chapel Hill, lançou luz sobre a questão premente da retenção de dados em grandes modelos de linguagem (LLMs), como o ChatGPT da OpenAI e o Bard do Google.

Apesar das tentativas de exclusão, as complexidades desses modelos de IA continuam a regurgitar dados sensíveis, provocando uma conversa séria sobre segurança da informação e ética em IA.

O enigma dos dados 'indeletáveis'

Os pesquisadores embarcaram em uma missão para investigar a erradicação de informações confidenciais dos LLMs. No entanto, eles se depararam com uma revelação. Excluir esses dados é árduo, mas verificar a exclusão representa um desafio igual. Depois de treinados em conjuntos de dados expansivos, esses gigantes da IA ​​abrigam os dados em seu complexo labirinto de parâmetros e pesos.

Esta situação torna-se ameaçadora quando o Modelos de IA divulgam inadvertidamente dados confidenciais, como identificadores pessoais ou registros financeiros, potencialmente preparando o terreno para usos nefastos.

Além disso, o cerne da questão reside no modelo de design destes modelos. A fase preliminar envolve formação em vastas bases de dados e afinação para garantir resultados coerentes. A terminologia “Transformador pré-treinado generativo”, encapsulada em GPT, oferece uma visão desse mecanismo.

Os estudiosos da UNC elucidaram um cenário hipotético em que um LLM, tendo-se banqueteado com um tesouro de dados bancários sensíveis, se torna uma ameaça potencial. As barreiras de proteção contemporâneas empregadas pelos desenvolvedores de IA não conseguem amenizar essa preocupação.

Estas medidas de proteção, como avisos codificados ou um paradigma conhecido como Aprendizagem por Reforço a partir do Feedback Humano (RLHF), desempenham um papel vital na redução de resultados indesejáveis. No entanto, eles ainda deixam os dados escondidos no abismo do modelo, prontos para serem invocados com uma simples reformulação de um prompt.

Preenchendo a lacuna de segurança

Apesar de implementar métodos de edição de modelos de última geração, como o Rank-One Model Editing, a equipe da UNC descobriu que informações factuais substanciais permaneciam acessíveis. Suas descobertas revelaram que os fatos poderiam ser ressuscitados em cerca de 38% e 29% das vezes por meio de ataques de caixa branca e caixa preta, respectivamente.

Em sua busca, os pesquisadores utilizaram um modelo conhecido como GPT-J. Com seus 6 bilhões de parâmetros, é um anão comparado ao colossal GPT-3.5, um modelo básico para ChatGPT com 170 bilhões de parâmetros. Este forte contraste sugere o desafio monumental de higienizar modelos maiores como o GPT-3.5 de dados injustificados.

Além disso, os estudiosos da UNC criaram novos métodos de defesa para proteger os LLMs de “ataques de extração” específicos. Esses esquemas nefastos exploram as barreiras de proteção do modelo para pescar dados confidenciais. No entanto, o jornal sugeria ameaçadoramente um jogo perpétuo de gato e rato, onde as estratégias defensivas perseguiriam para sempre as tácticas ofensivas em evolução.

Microsoft delega uma equipe nuclear para reforçar a IA

Por outro lado, o crescente domínio da IA ​​impulsionou gigantes da tecnologia como a Microsoft a se aventurarem em territórios desconhecidos. A recente formação de uma equipa de energia nuclear pela Microsoft para reforçar as iniciativas de IA sublinha as crescentes exigências e o futuro interligado da IA ​​e dos recursos energéticos. À medida que os modelos de IA evoluem, o seu apetite por energia aumenta, abrindo caminho para soluções inovadoras que satisfaçam esta procura crescente.

O discurso em torno da retenção e exclusão de dados nos LLMs transcende os corredores acadêmicos. Apela a uma análise aprofundada e a um diálogo em todo o setor para promover um quadro robusto que garanta a segurança dos dados, ao mesmo tempo que estimula o crescimento e o potencial da IA.

Este empreendimento dos investigadores da UNC é um avanço significativo no sentido de compreender e, eventualmente, resolver o problema dos dados “indeletáveis”, um passo mais perto de tornar a IA uma ferramenta mais segura na era digital.

Carimbo de hora:

Mais de MetaNotícias