Protegendo a IA: o que você deve saber

Protegendo a IA: o que você deve saber

Protegendo a IA: o que você deve saber PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

As ferramentas de aprendizado de máquina fazem parte dos fluxos de trabalho padrão de negócios e de TI há anos, mas a revolução da IA ​​generativa em desenvolvimento está impulsionando um rápido aumento na adoção e no conhecimento dessas ferramentas. Embora a IA ofereça benefícios de eficiência em vários setores, essas poderosas ferramentas emergentes exigem considerações especiais de segurança.

Qual a diferença entre proteger a IA?

A atual revolução da IA ​​pode ser nova, mas as equipes de segurança do Google e de outros lugares trabalham na segurança da IA ​​há muitos anos, senão décadas. De várias maneiras, os princípios fundamentais para proteger as ferramentas de IA são os mesmos que as melhores práticas gerais de segurança cibernética. A necessidade de gerenciar o acesso e proteger os dados por meio de técnicas fundamentais, como criptografia e identidade forte, não muda apenas porque a IA está envolvida.

Uma área em que a segurança da IA ​​é diferente é nos aspectos de segurança de dados. As ferramentas de IA são alimentadas — e, em última análise, programadas — por dados, o que as torna vulneráveis ​​a novos ataques, como o envenenamento de dados de treinamento. Atores maliciosos que podem alimentar a ferramenta de IA com dados falhos (ou corromper dados de treinamento legítimos) podem potencialmente danificá-la ou quebrá-la de uma forma que é mais complexa do que a que é vista nos sistemas tradicionais. E se a ferramenta estiver “aprendendo” ativamente, de modo que seus resultados mudem com base nas informações ao longo do tempo, as organizações deverão protegê-la contra um desvio em relação à sua função original pretendida.

Com um sistema empresarial tradicional (sem IA), o que você ganha com ele é o que você investe nele. Você não verá uma saída maliciosa sem uma entrada maliciosa. Mas como O CISO do Google, Phil Venables, disse em um podcast recente, “Para implementar [um] sistema de IA, você precisa pensar no gerenciamento de entradas e saídas.”
A complexidade dos sistemas de IA e a sua natureza dinâmica tornam-nos mais difíceis de proteger do que os sistemas tradicionais. Deve-se ter cuidado tanto na fase de entrada, para monitorar o que está acontecendo no sistema de IA, quanto na fase de saída, para garantir que os resultados sejam corretos e confiáveis.

Implementando uma estrutura de IA segura

Proteger os sistemas de IA e antecipar novas ameaças são as principais prioridades para garantir que os sistemas de IA se comportem conforme pretendido. Estrutura de IA segura do Google (SAIF) e seus Protegendo a IA: semelhante ou diferente? O relatório é um bom ponto de partida, fornecendo uma visão geral de como pensar e abordar os desafios específicos de segurança e as novas vulnerabilidades relacionadas ao desenvolvimento da IA.

O SAIF começa estabelecendo uma compreensão clara de quais ferramentas de IA sua organização usará e quais problemas comerciais específicos elas abordarão. Definir isso antecipadamente é crucial, pois permitirá que você entenda quem em sua organização estará envolvido e quais dados a ferramenta precisará acessar (o que ajudará na governança rigorosa de dados e nas práticas de segurança de conteúdo necessárias para proteger a IA). Também é uma boa ideia comunicar casos de uso e limitações apropriados da IA ​​em toda a sua organização; esta política pode ajudar a proteger contra o uso não oficial de ferramentas de IA por “TI paralela”.

Depois de identificar claramente os tipos de ferramentas e o caso de uso, sua organização deve montar uma equipe para gerenciar e monitorar a ferramenta de IA. Essa equipe deve incluir suas equipes de TI e segurança, mas também envolver sua equipe de gerenciamento de risco e departamento jurídico, além de considerar questões éticas e de privacidade.

Depois de identificar a equipe, é hora de começar o treinamento. Para proteger adequadamente a IA em sua organização, você precisa começar com uma cartilha que ajude todos a entender o que é a ferramenta, o que ela pode fazer e onde as coisas podem dar errado. Quando uma ferramenta chega às mãos de funcionários que não são treinados nas capacidades e deficiências da IA, aumenta significativamente o risco de um incidente problemático.

Depois de seguir essas etapas preliminares, você estabeleceu as bases para proteger a IA em sua organização. Há seis elementos principais do SAIF do Google que você deve implementar, começando com bases seguras por padrão e progredindo para a criação de ciclos eficazes de correção e feedback usando time vermelho.

Outro elemento essencial para proteger a IA é manter os humanos informados tanto quanto possível, reconhecendo ao mesmo tempo que a revisão manual das ferramentas de IA poderia ser melhor. O treinamento é vital à medida que você avança no uso da IA ​​em sua organização – treinamento e reciclagem, não das ferramentas em si, mas de suas equipes. Quando a IA vai além do que os humanos reais da sua organização entendem e podem verificar novamente, o risco de um problema aumenta rapidamente.

A segurança da IA ​​está evoluindo rapidamente e é vital que aqueles que trabalham na área permaneçam vigilantes. É crucial identificar potenciais novas ameaças e desenvolver contramedidas para as prevenir ou mitigar, para que a IA possa continuar a ajudar empresas e indivíduos em todo o mundo.

Saiba mais Perspectivas de parceiros do Google Cloud

Carimbo de hora:

Mais de Leitura escura