Admirável mundo novo da IA: o que aconteceu com a segurança? Privacidade?

Admirável mundo novo da IA: o que aconteceu com a segurança? Privacidade?

Admirável mundo novo da IA: o que aconteceu com a segurança? Privacidade? Inteligência de dados PlatoBlockchain. Pesquisa vertical. Ai.

A seguir está uma postagem convidada de John deVadoss, Conselho de Administração do Global Blockchain Business Council em Genebra e cofundador da InterWork Alliance em Washington, DC.

Na semana passada, tive a oportunidade em Washington, DC, de apresentar e discutir as implicações da IA ​​em relação à segurança com alguns membros do Congresso e seus funcionários.

A IA generativa hoje faz-me lembrar a Internet do final dos anos 80 – investigação fundamental, potencial latente e utilização académica, mas ainda não está pronta para o público. Desta vez, a ambição desenfreada dos fornecedores, alimentada por capital de risco de menor importância e galvanizada pelas câmaras de eco do Twitter, está a acelerar o Admirável Mundo Novo da IA.

Os chamados modelos de fundações “públicas” estão contaminados e são inadequados para uso comercial e de consumo; as abstrações de privacidade, onde existem, vazam como uma peneira; as construções de segurança são um trabalho em andamento, uma vez que a área de superfície de ataque e os vetores de ameaça ainda estão sendo compreendidos; e as grades de proteção ilusórias, quanto menos se falar sobre elas, melhor.

Então, como acabamos aqui? E o que aconteceu com a Segurança? Privacidade?

Modelos de fundação “comprometidos”

Os chamados modelos “abertos” são tudo menos abertos. Diferentes fornecedores promovem seus graus de abertura abrindo acesso aos pesos dos modelos, à documentação ou aos testes. Ainda assim, nenhum dos principais fornecedores fornece nada próximo dos conjuntos de dados de treinamento ou de seus manifestos ou linhagem para poder replicar e reproduzir seus modelos.

Esta opacidade em relação aos conjuntos de dados de treinamento significa que se você desejar usar um ou mais desses modelos, então você, como consumidor ou como organização, não terá qualquer capacidade de verificar ou validar a extensão da poluição de dados com respeito à propriedade intelectual, direitos autorais, etc., bem como conteúdo potencialmente ilegal.

Criticamente, sem o manifesto dos conjuntos de dados de treinamento, não há como verificar ou validar o conteúdo malicioso inexistente. Atores nefastos, incluindo atores patrocinados pelo Estado, plantam conteúdo de cavalo de Tróia na web que os modelos ingerem durante seu treinamento, levando a efeitos colaterais imprevisíveis e potencialmente maliciosos no momento da inferência.

Lembre-se, uma vez comprometido um modelo, não há como desaprendê-lo, a única opção é destruí-lo.

Segurança “porosa”

Os modelos generativos de IA são os honeypots de segurança definitivos, pois “todos” os dados foram ingeridos em um único contêiner. Novas classes e categorias de vetores de ataque surgem na era da IA; a indústria ainda não chegou a um acordo com as implicações tanto no que diz respeito à proteção destes modelos contra ameaças cibernéticas como no que diz respeito à forma como estes modelos são utilizados como ferramentas pelos intervenientes nas ameaças cibernéticas.

Técnicas maliciosas de injeção imediata podem ser usadas para envenenar o índice; o envenenamento de dados pode ser usado para corromper os pesos; ataques de incorporação, incluindo técnicas de inversão, podem ser usados ​​para extrair dados ricos dos embeddings; a inferência de associação pode ser usada para determinar se determinados dados estavam no conjunto de treinamento, etc., e isso é apenas a ponta do iceberg.

Os atores da ameaça podem obter acesso a dados confidenciais por meio de inversão de modelo e consulta programática; podem corromper ou de outra forma influenciar o comportamento latente do modelo; e, como mencionado anteriormente, a ingestão descontrolada de dados em geral leva à ameaça de actividade cibernética incorporada patrocinada pelo Estado através de cavalos de Tróia e muito mais.

Privacidade “vazada”

Os modelos de IA são úteis devido aos conjuntos de dados nos quais são treinados; A ingestão indiscriminada de dados em grande escala cria riscos de privacidade sem precedentes para o indivíduo e para o público em geral. Na era da IA, a privacidade tornou-se uma preocupação social; as regulamentações que abordam principalmente os direitos individuais de dados são inadequadas.

Além dos dados estáticos, é imperativo que os prompts de conversação dinâmica sejam tratados como IP para serem protegidos e protegidos. Se você é um consumidor envolvido na cocriação de um artefato com um modelo, deseja que seus prompts que direcionam essa atividade criativa não sejam usados ​​para treinar o modelo ou de outra forma compartilhados com outros consumidores do modelo.

Se você é um funcionário que trabalha com um modelo para entregar resultados de negócios, seu empregador espera que suas solicitações sejam confidenciais; além disso, as solicitações e as respostas necessitam de uma trilha de auditoria segura no caso de questões de responsabilidade que surjam por qualquer uma das partes. Isto deve-se principalmente à natureza estocástica destes modelos e à variabilidade nas suas respostas ao longo do tempo.

O que acontece depois?

Estamos a lidar com um tipo diferente de tecnologia, diferente de qualquer outra que tenhamos visto antes na história da computação, uma tecnologia que apresenta um comportamento emergente e latente em escala; as abordagens de ontem para segurança, privacidade e confidencialidade não funcionam mais.

Os líderes da indústria estão a atirar a cautela ao vento, deixando os reguladores e os decisores políticos sem outra alternativa senão intervir.

Carimbo de hora:

Mais de CryptoSlate