Como arquitetar AI com segurança em seus programas de segurança cibernética

Como arquitetar AI com segurança em seus programas de segurança cibernética

Como arquitetar IA com segurança em seus programas de segurança cibernética PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

No final de junho, a empresa de segurança cibernética Group-IB revelou uma notável falha de segurança que afetou contas ChatGPT. A empresa identificou impressionantes 100,000 dispositivos comprometidos, cada um com credenciais ChatGPT que foram posteriormente negociadas em mercados ilícitos da Dark Web ao longo do ano passado. Essa violação solicitou atenção imediata para lidar com a segurança comprometida das contas do ChatGPT, uma vez que as consultas de pesquisa que contêm informações confidenciais ficam expostas a hackers.

Em outro incidente, em menos de um mês, a Samsung sofreu três ocorrências documentadas em que funcionários inadvertidamente vazou informações confidenciais através do ChatGPT. Como o ChatGPT retém os dados de entrada do usuário para melhorar seu próprio desempenho, esses valiosos segredos comerciais pertencentes à Samsung estão agora em posse da OpenAI, a empresa por trás do serviço de IA. Isso representa preocupações significativas em relação à confidencialidade e segurança das informações proprietárias da Samsung.

Devido a essas preocupações sobre a conformidade do ChatGPT com o Regulamento Geral de Proteção de Dados da UE (GDPR), que exige diretrizes rígidas para coleta e uso de dados, A Itália impôs uma proibição nacional sobre o uso do ChatGPT.

Avanços rápidos em IA e aplicativos generativos de IA abriram novas oportunidades para acelerar o crescimento em inteligência de negócios, produtos e operações. Mas os proprietários de programas de segurança cibernética precisam garantir a privacidade dos dados enquanto aguardam o desenvolvimento de leis.

Mecanismo público versus mecanismo privado

Para compreender melhor os conceitos, vamos começar definindo IA pública e IA privada. IA pública refere-se a aplicativos de software de IA acessíveis ao público que foram treinados em conjuntos de dados, geralmente provenientes de usuários ou clientes. Um excelente exemplo de IA pública é o ChatGPT, que utiliza dados disponíveis publicamente na Internet, incluindo artigos de texto, imagens e vídeos.

A IA pública também pode abranger algoritmos que utilizam conjuntos de dados não exclusivos de um usuário ou organização específica. Consequentemente, os clientes de IA pública devem estar cientes de que seus dados podem não permanecer totalmente privados.

A IA privada, por outro lado, envolve treinamento de algoritmos em dados exclusivos de um determinado usuário ou organização. Nesse caso, se você usar sistemas de aprendizado de máquina para treinar um modelo usando um conjunto de dados específico, como faturas ou formulários de impostos, esse modelo permanecerá exclusivo para sua organização. Os fornecedores de plataforma não utilizam seus dados para treinar seus próprios modelos, portanto, a IA privada impede qualquer uso de seus dados para ajudar seus concorrentes.

Integre a IA aos programas e políticas de treinamento

Para experimentar, desenvolver e integrar aplicativos de IA em seus produtos e serviços, aderindo às melhores práticas, a equipe de segurança cibernética deve colocar as seguintes políticas em prática.

Conscientização e educação do usuário: Eduque os usuários sobre os riscos associados ao uso de IA e incentive-os a serem cautelosos ao transmitir informações confidenciais. Promova práticas de comunicação segura e aconselhe os usuários a verificar a autenticidade do sistema de IA.

  • Minimização de dados: Forneça ao mecanismo de IA apenas a quantidade mínima de dados necessária para realizar a tarefa. Evite compartilhar informações desnecessárias ou confidenciais que não sejam relevantes para o processamento de IA.
  • Anonimização e Desidentificação: Sempre que possível, anonimize ou desidentifique os dados antes de inseri-los no mecanismo de IA. Isso envolve a remoção de informações de identificação pessoal (PII) ou quaisquer outros atributos confidenciais que não sejam necessários para o processamento de IA.

Práticas seguras de manipulação de dados: Estabeleça políticas e procedimentos rígidos para lidar com seus dados confidenciais. Limite o acesso apenas ao pessoal autorizado e imponha mecanismos de autenticação fortes para impedir o acesso não autorizado. Treine os funcionários sobre as melhores práticas de privacidade de dados e implemente mecanismos de registro e auditoria para rastrear o acesso e uso de dados.

Retenção e Descarte: Defina políticas de retenção de dados e descarte os dados com segurança quando eles não forem mais necessários. Implementar adequadamente mecanismos de eliminação de dados, como exclusão segura ou exclusão criptográfica, para garantir que os dados não possam ser recuperados depois que não forem mais necessários.

Considerações legais e de conformidade: Entenda as ramificações legais dos dados que você está inserindo no mecanismo de IA. Certifique-se de que a forma como os usuários utilizam a IA está em conformidade com os regulamentos relevantes, como leis de proteção de dados ou padrões específicos da indústria.

Avaliação do fornecedor: Se você estiver usando um mecanismo de IA fornecido por um fornecedor terceirizado, faça uma avaliação completa de suas medidas de segurança. Certifique-se de que o fornecedor siga as práticas recomendadas do setor para segurança e privacidade de dados e que eles tenham salvaguardas adequadas para proteger seus dados. A certificação ISO e SOC, por exemplo, fornecem valiosas validações de terceiros sobre a adesão de um fornecedor a padrões reconhecidos e seu compromisso com a segurança da informação.

Formalizar uma Política de Uso Aceitável de IA (AUP): Uma política de uso aceitável de IA deve delinear a finalidade e os objetivos da política, enfatizando o uso responsável e ético das tecnologias de IA. Deve definir casos de uso aceitáveis, especificando o escopo e os limites para a utilização da IA. A AUP deve incentivar a transparência, a responsabilidade e a tomada de decisão responsável no uso da IA, promovendo uma cultura de práticas éticas de IA dentro da organização. Revisões e atualizações regulares garantem a relevância da política para a evolução das tecnologias de IA e da ética.

Conclusões

Ao aderir a essas diretrizes, os proprietários do programa podem aproveitar as ferramentas de IA de maneira eficaz, protegendo informações confidenciais e mantendo os padrões éticos e profissionais. É crucial revisar o material gerado pela IA quanto à precisão e, ao mesmo tempo, proteger os dados inseridos que geram prompts de resposta.

Carimbo de hora:

Mais de Leitura escura