As ameaças projetadas por IA são FUD ou realidade?

As ameaças projetadas por IA são FUD ou realidade?

As ameaças projetadas por IA são FUD ou realidade? Inteligência de dados PlatoBlockchain. Pesquisa vertical. Ai.

No momento em que as aplicações generativas de IA chegaram ao mercado, o ritmo dos negócios mudou, não apenas para as equipes de segurança, mas também para os cibercriminosos. Hoje, não adotar as inovações de IA pode significar ficar para trás em relação aos concorrentes e colocar a sua defesa cibernética em desvantagem contra ataques cibernéticos alimentados por IA. Mas ao discutir como a IA terá ou não impacto no crime cibernético, é importante olharmos para as coisas através de lentes pragmáticas e sóbrias - sem alimentar o hype que mais parece ficção científica.

Os avanços e a maturidade atuais da IA ​​sinalizam um salto significativo para a segurança empresarial. Os cibercriminosos não conseguem igualar facilmente o tamanho e a escala dos recursos, competências e motivação das empresas, tornando mais difícil para eles acompanhar a velocidade atual da inovação em IA. Investimento de risco privado em IA explodiu para US$ 93.5 bilhões em 2021 – os bandidos não têm esse nível de capital. Eles também não têm a mão de obra, o poder computacional e as inovações que proporcionam às empresas comerciais ou ao governo mais tempo e oportunidade para falhar rapidamente, aprender rápido e acertar primeiro.

Mas não se engane: o cibercrime irá alcançá-lo. Esta não é a primeira vez que o setor de segurança teve uma breve vantagem – quando o ransomware começou a levar mais defensores a adotar tecnologias de detecção e resposta de endpoint, os invasores precisaram de algum tempo para descobrir como contornar e escapar dessas detecções. Esse “período de carência” provisório deu às empresas tempo para melhor se proteger. O mesmo se aplica agora: as empresas precisam de maximizar a sua liderança na corrida da IA, avançando as suas capacidades de deteção e resposta a ameaças e aproveitando a velocidade e a precisão que as atuais inovações da IA ​​lhes proporcionam.

Então, como a IA está mudando o crime cibernético? Bem, isso não mudará substancialmente tão cedo, mas irá escaloná-lo em certos casos. Vamos dar uma olhada em onde o uso malicioso de IA terá ou não o impacto mais imediato.

Campanhas de malware totalmente automatizadas: FUD

Nos últimos meses, temos visto reclamações sobre vários casos de uso malicioso de IA, mas só porque um cenário é possível não o torna provável. Tomemos como exemplo campanhas de malware totalmente automatizadas – a lógica diz que é possível aproveitar a IA para alcançar esse resultado, mas dado que as principais empresas de tecnologia ainda não foram pioneiras em ciclos de desenvolvimento de software totalmente automatizados, é improvável que grupos de crimes cibernéticos com restrições financeiras consigam isso mais cedo . Mesmo a automação parcial pode permitir a escalada do crime cibernético, no entanto, uma tática que já vimos ser usada em Campanhas de bazar. Isto não é uma inovação, mas sim uma técnica testada e comprovada que os defensores já estão enfrentando.

Phishing projetado por IA: realidade (mas o contexto é fundamental)

Outro caso de uso a considerar são os ataques de phishing projetados por IA. Isso não só é possível, mas já estamos começando a ver esses ataques na natureza. Esta próxima geração de phishing pode atingir níveis mais elevados de persuasão e taxa de cliques, mas um phishing de engenharia humana e um phishing de engenharia de IA ainda conduzem ao mesmo objetivo. Em outras palavras, um phishing projetado por IA ainda é um phishing em busca de um clique e requer a mesma detecção e prontidão de resposta.

No entanto, embora o problema permaneça o mesmo, a escala é muito diferente. A IA atua como um multiplicador de força para dimensionar campanhas de phishing, portanto, se uma empresa estiver observando um aumento na entrada de e-mails de phishing – e esses e-mails maliciosos forem significativamente mais persuasivos – então provavelmente ela está diante de uma alta probabilidade de taxa de cliques e potencial de comprometimento. Os modelos de IA também podem aumentar a eficácia da segmentação, ajudando os invasores a determinar quem é o alvo mais suscetível a um phishing específico dentro de uma organização e, por fim, alcançando um ROI mais alto com suas campanhas. Os ataques de phishing têm estado historicamente entre as táticas mais bem-sucedidas que os invasores usaram para se infiltrar nas empresas. A escala desse tipo de ataque enfatiza o papel crítico que as tecnologias EDR, MDR, XDR e IAM desempenham na detecção de comportamento anômalo antes que ele atinja o impacto.

Ataques de envenenamento de IA: FUD-ish

Ataques de envenenamento de IA, por outras palavras, a manipulação programática do código e dos dados sobre os quais os modelos de IA são construídos, pode ser o “Santo Graal” dos ataques aos cibercriminosos. O impacto de um ataque de envenenamento bem-sucedido pode variar desde tentativas de desinformação até Die Hard 4.0. Por que? Porque ao envenenar o modelo, um invasor pode fazer com que ele se comporte ou funcione da maneira que desejar, e isso não é facilmente detectável. No entanto, esses ataques não são fáceis de realizar – eles exigem acesso aos dados nos quais o modelo de IA está treinando no momento do treinamento, o que não é pouca coisa. À medida que mais modelos se tornam de código aberto, o risco destes ataques aumentará, mas permanecerá baixo por enquanto.

O desconhecido

Embora seja importante separar o entusiasmo da realidade, também é importante garantir que estamos fazendo as perguntas certas sobre o impacto da IA ​​no cenário de ameaças. Existem muitas incógnitas sobre o potencial da IA ​​– como ela pode mudar as metas e objetivos dos adversários é algo que não devemos ignorar. Ainda não se sabe como as novas habilidades podem ajudar a servir novos propósitos aos adversários e a recalibrar os seus motivos.

Podemos não ver um aumento imediato em novos ataques baseados em IA, mas a escalada do crime cibernético graças à IA terá um impacto substancial nas organizações que não estão preparadas. A velocidade e a escala são características intrínsecas da IA ​​e, tal como os defensores procuram beneficiar delas, os atacantes também o fazem. As equipes de segurança já estão com falta de pessoal e sobrecarregadas – ver um aumento no tráfego malicioso ou nos compromissos de resposta a incidentes é um peso substancial adicionado à sua carga de trabalho.

Isto reafirma, mais do que nunca, a necessidade de as empresas investirem nas suas defesas, usando IA para aumentar velocidade e precisão em suas capacidades de detecção e resposta a ameaças. As empresas que aproveitarem esse “período de carência” se encontrarão muito mais preparadas e resilientes para o dia em que os invasores realmente alcançarem a corrida cibernética da IA.

Carimbo de hora:

Mais de Leitura escura