연구원, 공격자에 반응하는 AI 사이버 방어자 생성

연구원, 공격자에 반응하는 AI 사이버 방어자 생성

딥 강화 학습(DRL)을 기반으로 새로 생성된 인공 지능(AI) 시스템은 시뮬레이션된 환경에서 공격자에 대응하고 사이버 공격이 확대되기 전에 95%를 차단할 수 있습니다.

이는 네트워크에서 공격자와 방어자 사이의 디지털 충돌에 대한 추상 시뮬레이션을 구축하고 손상 방지 및 네트워크 중단 최소화를 기반으로 보상을 최대화하기 위해 XNUMX개의 다른 DRL 신경망을 훈련시킨 에너지부의 태평양 북서부 국립 연구소(Pacific Northwest National Laboratory)의 연구원에 따른 것입니다.

모의 공격자는 다음을 기반으로 일련의 전술을 사용했습니다. MITER ATT & CK 프레임워크의 분류는 초기 액세스 및 정찰 단계에서 목표인 영향 및 유출 단계에 도달할 때까지 다른 공격 단계로 이동합니다.

단순화된 공격 환경에서 AI 시스템의 성공적인 훈련은 공격에 대한 실시간 방어 대응이 AI 모델에 의해 처리될 수 있음을 보여줍니다. 14월 XNUMX일 워싱턴 DC의 인공 지능 발전.

"이러한 기술의 가능성을 보여줄 수 없다면 더 복잡한 아키텍처로 이동하고 싶지 않을 것입니다."라고 그는 말합니다. “먼저 진행하기 전에 DRL을 실제로 성공적으로 교육하고 좋은 테스트 결과를 보여줄 수 있다는 것을 먼저 보여주고 싶었습니다.”

기계 학습 및 인공 지능 기술을 사이버 보안 내의 다양한 분야에 적용하는 것은 전자 메일 보안 게이트웨이에 기계 학습을 초기에 통합한 이후 지난 XNUMX년 동안 뜨거운 추세가 되었습니다. 초기 2010에서 최근의 노력에 ChatGPT를 사용하여 코드 분석 또는 포렌식 분석을 수행합니다. 지금, 대부분의 보안 제품은 — 또는 가지고 있다고 주장하는 — 대규모 데이터 세트에서 훈련된 기계 학습 알고리즘으로 구동되는 몇 가지 기능.

PNNL의 AI 기반 사이버 수비수

PNNL의 AI 기반 Cyber ​​Defender의 의사 결정 흐름. 출처: DoE PNNL

그러나 선제적 방어가 가능한 AI 시스템을 만드는 것은 실용적이라기보다는 계속해서 야망에 차 있습니다. 연구원들에게는 다양한 장애물이 남아 있지만 PNNL 연구는 미래에 AI 방어자가 가능할 수 있음을 보여줍니다.

PNNL 연구팀은 "다양한 적대 환경에서 훈련된 여러 DRL 알고리즘을 평가하는 것은 실용적인 자율 사이버 방어 솔루션을 향한 중요한 단계"라고 말했다. 그들의 논문에 명시된. "우리의 실험은 모델 없는 DRL 알고리즘이 서로 다른 기술 및 지속성 수준을 가진 다단계 공격 프로필에서 효과적으로 훈련될 수 있음을 시사하며 경쟁 환경에서 유리한 방어 결과를 산출합니다."

시스템에서 MITRE ATT&CK를 사용하는 방법

연구팀의 첫 번째 목표는 오픈 소스 툴킷을 기반으로 맞춤형 시뮬레이션 환경을 만드는 것이었습니다. 오픈 AI 체육관. 연구원들은 해당 환경을 사용하여 MITRE ATT&CK 프레임워크의 7가지 전술과 15가지 기술의 하위 집합을 사용할 수 있는 기능을 갖춘 다양한 기술 및 지속성 수준의 공격자 엔터티를 생성했습니다.

공격자 에이전트의 목표는 초기 액세스에서 실행, 지속성에서 명령 및 제어, 수집에서 영향까지 공격 체인의 XNUMX단계를 이동하는 것입니다.

PNNL의 Chatterjee는 공격자의 경우 환경 상태와 방어자의 현재 행동에 맞게 전술을 조정하는 것이 복잡할 수 있다고 말합니다.

"적군은 초기 정찰 상태에서 일부 유출 또는 충돌 상태로 가는 길을 탐색해야 합니다."라고 그는 말합니다. "우리는 적이 환경에 진입하기 전에 이를 저지하기 위한 일종의 모델을 만들려는 것이 아닙니다. 우리는 시스템이 이미 손상되었다고 가정합니다."

연구자들은 강화 학습에 기반한 신경망에 대한 네 가지 접근 방식을 사용했습니다. 강화 학습(RL)은 인간 두뇌의 보상 시스템을 모방하는 기계 학습 접근 방식입니다. 신경망은 시스템이 얼마나 잘 수행되는지를 나타내는 점수로 측정되는 더 나은 솔루션을 보상하기 위해 개별 뉴런에 대한 특정 매개 변수를 강화하거나 약화하여 학습합니다.

PNNL 연구원이자 이 논문의 저자인 Mahantesh Halappanavar는 강화 학습을 통해 본질적으로 컴퓨터가 당면한 문제에 대해 훌륭하지만 완벽하지는 않은 접근 방식을 만들 수 있다고 말합니다.

"강화 학습을 사용하지 않고도 우리는 여전히 그것을 할 수 있지만 실제로 좋은 메커니즘을 생각해 낼 시간이 충분하지 않은 정말 큰 문제가 될 것입니다."라고 그는 말합니다. "우리의 연구는 심층 강화 학습이 인간 행동 자체의 일부를 어느 정도 모방하고 이 매우 광대한 공간을 매우 효율적으로 탐색할 수 있는 메커니즘을 제공합니다."

프라임 타임 준비 안됨

실험은 Deep Q Network로 알려진 특정 강화 학습 방법이 방어 문제에 대한 강력한 솔루션을 생성한다는 것을 발견했습니다. 공격자의 97% 잡기 테스트 데이터 세트에서. 그러나 연구는 시작에 불과합니다. 보안 전문가는 사고 대응 및 포렌식을 수행하는 데 도움이 되는 AI 동반자를 빠른 시일 내에 찾아서는 안 됩니다.

해결해야 할 많은 문제 중 하나는 설명 가능한 강화 학습(XRL)이라는 연구 영역인 결정에 영향을 미치는 요인을 설명하기 위해 강화 학습과 심층 신경망을 얻는 것입니다.

또한 AI 알고리즘의 견고성과 신경망을 훈련하는 효율적인 방법을 찾는 것 모두 해결해야 할 문제라고 PNNL의 Chatterjee는 말합니다.

"제품을 만드는 것은 이 연구의 주된 동기가 아니었습니다."라고 그는 말합니다. "이것은 과학적 실험과 알고리즘 발견에 관한 것입니다."

타임 스탬프 :

더보기 어두운 독서