Os três principais problemas de privacidade de dados que a IA enfrenta hoje - The Daily Hodl

Os três principais problemas de privacidade de dados que a IA enfrenta hoje – The Daily Hodl

Postagem de convidado HodlX  Envie sua postagem

 

IA (inteligência artificial) causou excitação frenética entre consumidores e empresas - impulsionado por uma crença apaixonada de que LLMs (grandes modelos de linguagem) e ferramentas como ChatGPT transformarão a maneira como estudamos, trabalhamos e vivemos.

Mas, tal como nos primórdios da Internet, os utilizadores estão a aderir sem considerar como os seus dados pessoais são utilizados. - Ume o impacto que isso pode ter na sua privacidade.

Já houve inúmeros exemplos de violações de dados no espaço de IA. Em março de 2023, OpenAI tomou temporariamente ChatGPT modo offline depois que um erro “significativo” significou que os usuários puderam ver os históricos de conversas de estranhos.

Esse mesmo bug significava as informações de pagamento dos assinantes - incluindo nomes, endereços de e-mail e números parciais de cartão de crédito - também eram de domínio público.

Em setembro de 2023, impressionantes 38 terabytes de dados da Microsoft foram inadvertidamente vazou por um funcionário, com especialistas em segurança cibernética alertando que isso poderia ter permitido que invasores se infiltrassem em modelos de IA com código malicioso.

Os pesquisadores também conseguiram manipular Sistemas de IA para divulgar registros confidenciais.

Em apenas algumas horas, um grupo chamado Robust Intelligence conseguiu solicitar informações de identificação pessoal do software da Nvidia e contornar as proteções projetadas para impedir que o sistema discutisse determinados tópicos.

Lições foram aprendidas em todos esses cenários, mas cada violação ilustra poderosamente os desafios que precisam ser superados para que a IA se torne uma força confiável em nossas vidas.

Gemini, chatbot do Google, admite até que todas as conversas são processadas por revisores humanos - sublinhando a falta de transparência no seu sistema.

“Não insira nada que você não gostaria que fosse revisado ou usado”, alerta um alerta aos usuários.

A IA está indo rapidamente além de uma ferramenta que os estudantes usam para seus trabalhos de casa ou que os turistas confiam para recomendações durante uma viagem a Roma.

Cada vez mais depende dele para discussões delicadas - e alimentamos tudo, desde questões médicas até nossos horários de trabalho.

Por causa disso, é importante dar um passo atrás e refletir sobre os três principais problemas de privacidade de dados que a IA enfrenta hoje e por que eles são importantes para todos nós.

1. Os prompts não são privados

Ferramentas como o ChatGPT memorizam conversas anteriores para consultá-las mais tarde. Embora isso possa melhorar a experiência do usuário e ajudar a treinar LLMs, traz riscos.

Se um sistema for hackeado com sucesso, existe um perigo real de que os prompts sejam expostos em um fórum público.

Detalhes potencialmente embaraçosos do histórico de um usuário podem ser vazados, bem como informações comercialmente confidenciais quando a IA estiver sendo implantada para fins de trabalho.

Como vimos no Google, todos os envios também podem acabar sendo examinados por sua equipe de desenvolvimento.

A Samsung tomou medidas sobre isso em maio de 2023, quando proibiu totalmente os funcionários de usar ferramentas generativas de IA. Isso aconteceu depois que um funcionário carregado código-fonte confidencial para ChatGPT.

A gigante da tecnologia estava preocupada com a dificuldade de recuperar e excluir essas informações, o que significa que o IP (propriedade intelectual) poderia acabar sendo distribuído ao público em geral.

Apple, Verizon e JPMorgan tomaram medidas semelhantes, com relatórios sugerindo que a Amazon lançou uma repressão depois que as respostas do ChatGPT apresentaram semelhanças com seus próprios dados internos.

Como você pode ver, as preocupações vão além do que aconteceria se houvesse uma violação de dados, mas vão até a perspectiva de que as informações inseridas nos sistemas de IA possam ser reaproveitadas e distribuídas para um público mais amplo.

Empresas como a OpenAI já estão enfrentando vários processos judiciais em meio a alegações de que seus chatbots foram treinados com material protegido por direitos autorais.

2. Modelos personalizados de IA treinados por organizações não são privados

Isso nos leva perfeitamente ao nosso próximo ponto - embora indivíduos e empresas possam estabelecer seus modelos LLM personalizados com base em suas próprias fontes de dados, eles não serão totalmente privados se existirem dentro dos limites de uma plataforma como o ChatGPT.

Em última análise, não há como saber se os insumos estão sendo usados ​​para treinar esses sistemas massivos - ou se as informações pessoais podem acabar sendo usadas em modelos futuros.

Como um quebra-cabeças, pontos de dados de múltiplas fontes podem ser reunidos para formar uma visão abrangente e detalhada sobre a identidade e o histórico de alguém.

As principais plataformas também podem não oferecer explicações detalhadas sobre como esses dados são armazenados e processados, sendo incapazes de cancelar recursos com os quais o usuário se sente desconfortável.

Além de responder às solicitações do usuário, os sistemas de IA têm cada vez mais a capacidade de ler nas entrelinhas e deduzir tudo, desde a localização de uma pessoa até sua personalidade.

No caso de uma violação de dados, consequências terríveis são possíveis. Ataques de phishing incrivelmente sofisticados poderiam ser orquestrados - e usuários alvo de informações que alimentaram confidencialmente em um sistema de IA.

Outros cenários potenciais incluem o uso desses dados para assumir a identidade de alguém, seja por meio de aplicativos para abertura de contas bancárias ou vídeos deepfake.

Os consumidores precisam permanecer vigilantes, mesmo que eles próprios não usem IA. A IA está sendo cada vez mais usada para alimentar sistemas de vigilância e aprimorar a tecnologia de reconhecimento facial em locais públicos.

Se tal infra-estrutura não for estabelecida num ambiente verdadeiramente privado, as liberdades civis e a privacidade de inúmeros cidadãos poderão ser violadas sem o seu conhecimento.

3. Dados privados são usados ​​para treinar sistemas de IA

Há preocupações de que os principais sistemas de IA tenham adquirido sua inteligência examinando inúmeras páginas da web.

As estimativas sugerem que 300 bilhões de palavras foram usadas para treinar o ChatGPT - são 570 gigabytes de dados - com livros e entradas da Wikipedia entre os conjuntos de dados.

Sabe-se também que os algoritmos dependem de páginas de mídia social e comentários online.

Com algumas dessas fontes, você poderia argumentar que os proprietários dessas informações teriam uma expectativa razoável de privacidade.

Mas aqui está a coisa - muitas das ferramentas e aplicativos com os quais interagimos todos os dias já são fortemente influenciados pela IA - e reagir aos nossos comportamentos.

O Face ID do seu iPhone usa IA para rastrear mudanças sutis em sua aparência.

Os algoritmos baseados em IA do TikTok e do Facebook fazem recomendações de conteúdo com base nos clipes e postagens que você viu no passado.

Assistentes de voz como Alexa e Siri também dependem muito do aprendizado de máquina.

Uma constelação estonteante de startups de IA está por aí, e cada uma tem um propósito específico. No entanto, alguns são mais transparentes do que outros sobre como os dados dos utilizadores são recolhidos, armazenados e aplicados.

Isto é especialmente importante porque a IA tem um impacto no campo da saúde - desde imagens e diagnósticos médicos até manutenção de registros e produtos farmacêuticos.

É necessário aprender lições com as empresas da Internet envolvidas em escândalos de privacidade nos últimos anos.

Flo, um aplicativo de saúde feminina, foi acusado pelos reguladores de compartilhar detalhes íntimos sobre seus usuários com empresas como Facebook e Google na década de 2010.

Para onde vamos daqui

A IA terá um impacto indelével em todas as nossas vidas nos próximos anos. Os LLMs estão melhorando a cada dia que passa e novos casos de uso continuam surgindo.

No entanto, existe um risco real de que os reguladores tenham dificuldade em acompanhar o ritmo da indústria, que avança a uma velocidade vertiginosa.

E isso significa que os consumidores precisam começar a proteger os seus próprios dados e monitorar como eles são usados.

A descentralização pode desempenhar um papel vital aqui e evitar que grandes volumes de dados caiam nas mãos das principais plataformas.

As DePINs (redes descentralizadas de infraestrutura física) têm o potencial de garantir que os usuários comuns aproveitem todos os benefícios da IA ​​sem que sua privacidade seja comprometida.

Os prompts criptografados não apenas podem fornecer resultados muito mais personalizados, mas os LLMs que preservam a privacidade garantiriam que os usuários tivessem controle total de seus dados em todos os momentos - e proteção contra uso indevido.


Chris Were é CEO da verida, uma rede de dados descentralizada e autossoberana que permite aos indivíduos controlar a sua identidade digital e os seus dados pessoais. Chris é um empreendedor de tecnologia baseado na Austrália que passou mais de 20 anos se dedicando ao desenvolvimento de soluções de software inovadoras.

 

Confira as últimas notícias sobre o HodlX

Siga-nos no Twitter Facebook Telegram

Confira o Últimos Anúncios da Indústria  

Os três principais problemas de privacidade de dados que a IA enfrenta hoje - The Daily Hodl PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Disclaimer: As opiniões expressas no The Daily Hodl não são conselhos de investimento. Os investidores devem fazer a devida diligência antes de fazer qualquer investimento de alto risco em Bitcoin, criptomoeda ou ativos digitais. Por favor, esteja ciente de que suas transferências e negociações são por sua conta e risco, e quaisquer perdas que você possa incorrer são de sua responsabilidade. O Daily Hodl não recomenda a compra ou venda de quaisquer criptomoedas ou ativos digitais, nem o The Daily Hodl é um consultor de investimentos. Por favor, note que o The Daily Hodl participa de marketing afiliado.

Imagem Gerada: Midjourney

Carimbo de hora:

Mais de The Daily Hodl