AI를 규제하려면 하드웨어부터 시작해야 한다고 주장하는 사람들

AI를 규제하려면 하드웨어부터 시작해야 한다고 주장하는 사람들

AI를 규제하려면 하드웨어부터 시작해야 한다고 Boffins는 PlatoBlockchain Data Intelligence를 주장합니다. 수직 검색. 일체 포함.

인공 지능의 파괴적인 잠재력을 제한하려는 노력의 일환으로 케임브리지 대학의 새로운 논문에서는 핵무기의 무단 발사를 막기 위해 개발된 것과 같은 원격 킬 스위치와 잠금 장치를 이를 구동하는 하드웨어에 베이킹할 것을 제안했습니다.

종이 [PDF]에는 수많은 학술 기관과 OpenAI의 목소리가 포함되어 있으며, 이러한 모델이 의존하는 하드웨어를 규제하는 것이 오용을 방지하는 최선의 방법일 수 있다는 주장을 제시합니다.

“AI 관련 컴퓨팅은 특히 효과적인 개입 지점입니다. 이는 감지 가능하고 제외 가능하며 정량화 가능하며 극도로 집중된 공급망을 통해 생산됩니다.”라고 연구원들은 주장합니다.

1조 개의 매개변수가 넘는 것으로 알려진 가장 많은 모델을 훈련하려면 수만 개의 GPU 또는 가속기와 몇 주 또는 몇 달의 처리 시간 등 엄청난 물리적 인프라가 필요합니다. 연구자들은 이것이 이러한 자원의 존재와 상대적 성능을 숨기기 어렵게 만든다고 말합니다.

게다가 이러한 모델을 훈련하는 데 사용되는 가장 진보된 칩은 Nvidia, AMD, Intel과 같은 상대적으로 소수의 회사에서 생산되므로 정책 입안자는 이러한 제품의 판매를 관련 개인이나 국가로 제한할 수 있습니다.

반도체 제조에 대한 공급망 제약과 같은 다른 요인들과 함께 이러한 요인들은 정책 입안자들에게 AI 인프라가 배포되는 방법과 위치, 액세스가 허용되거나 허용되지 않는 사람을 더 잘 이해하고 오용에 대한 처벌을 집행할 수 있는 수단을 제공한다고 논문은 주장합니다. .

인프라 제어

이 백서는 정책 입안자가 AI 하드웨어 규제에 접근할 수 있는 다양한 방법을 강조합니다. 가시성을 높이고 AI 가속기 판매를 제한하기 위한 제안을 포함한 많은 제안이 이미 국가 차원에서 실행되고 있습니다.

지난해 조 바이든 미국 대통령은 다음과 같은 제안을 내놨다. 행정 명령 대규모 이중 용도 AI 모델을 개발하는 회사와 이를 수행할 수 있는 인프라 공급업체를 식별하는 것을 목표로 합니다. 그들을 훈련시키다. 익숙하지 않다면 "이중 용도"는 민간 및 군사 응용 분야에서 이중 임무를 수행할 수 있는 기술을 의미합니다.

최근에는 미국 상무부가 제안 된 이는 미국의 클라우드 제공업체가 관련 개인이나 국가가 수출 제한을 피하는 것을 방지하기 위해 보다 엄격한 "고객 파악" 정책을 구현하도록 요구하는 규정입니다.

이러한 종류의 가시성은 잘못된 보고로 인해 탄도 미사일이 대규모로 축적되는 미사일 격차 논란으로 촉발된 것과 같은 또 다른 군비 경쟁을 피하는 데 도움이 될 수 있기 때문에 가치가 있다고 연구자들은 지적합니다. 이러한 보고 요구 사항을 실행하면 고객의 개인 정보가 침해될 위험이 있고 민감한 데이터가 유출될 수도 있다고 경고합니다.

한편, 무역 측면에서는 상무부가 계속해서 노력해 왔습니다. 강화하다 중국에 판매되는 가속기의 성능을 제한합니다. 그러나 이전에 보고한 바와 같이 이러한 노력으로 인해 중국과 같은 국가가 미국 칩을 손에 넣는 것이 더 어려워졌지만 완벽함과는 거리가 멀습니다.

이러한 제한 사항을 해결하기 위해 연구원들은 AI 칩 판매에 대한 글로벌 등록을 구현하여 제품이 원산지를 떠난 후에도 수명 주기 동안 이를 추적할 것을 제안했습니다. 그들은 이러한 레지스트리가 각 칩에 고유 식별자를 통합할 수 있다고 제안합니다. 밀수 구성 요소의.

스펙트럼의 더 극단적인 끝에서 연구원들은 킬 스위치를 실리콘에 구워 악성 애플리케이션에서의 사용을 방지할 수 있다고 제안했습니다.

이론적으로는 이를 통해 규제 기관이 원격으로 칩에 대한 액세스를 차단함으로써 민감한 기술의 남용에 더 빠르게 대응할 수 있지만 저자는 그렇게 하는 데 위험이 없는 것은 아니라고 경고합니다. 이는 잘못 구현될 경우 이러한 킬 스위치가 사이버 범죄자의 표적이 될 수 있다는 의미입니다.

또 다른 제안에서는 잠재적으로 위험한 AI 훈련 작업을 대규모로 배포하기 전에 여러 당사자가 이를 승인하도록 요구합니다. “핵무기는 허용적 행동 링크(permissive action link)라는 유사한 메커니즘을 사용합니다.”라고 그들은 썼습니다.

핵무기의 경우 이러한 보안 잠금 장치는 한 사람이 악의적으로 선제 공격을 가하는 것을 방지하도록 설계되었습니다. 그러나 AI의 경우 개인이나 회사가 클라우드에서 특정 임계값 이상으로 모델을 훈련하려면 먼저 승인을 받아야 한다는 아이디어가 있습니다.

연구원들은 이것이 강력한 도구임에도 불구하고 이것이 바람직한 AI의 개발을 방해함으로써 역효과를 낼 수 있다는 점을 관찰했습니다. 핵무기 사용의 결과는 매우 명확하지만 AI가 항상 그렇게 흑백인 것은 아니라는 주장이 있는 것 같습니다.

그러나 이것이 귀하의 취향에 비해 너무 디스토피아적이라고 느껴진다면 이 논문에서는 사회 전체의 개선을 위해 AI 리소스를 재할당하는 데 전체 섹션을 할애합니다. 정책 입안자들이 함께 모여 AI 컴퓨팅을 악의적으로 사용할 가능성이 없는 그룹이 AI 컴퓨팅에 더 쉽게 접근할 수 있도록 만들 수 있다는 아이디어입니다. 이 개념은 "할당"으로 설명됩니다.

AI 개발 규제에 있어 무엇이 문제인가?

왜 이 모든 문제를 겪어야 합니까? 글쎄, 이 논문의 저자는 물리적 하드웨어가 본질적으로 제어하기 더 쉽다고 가정합니다.

하드웨어에 비해 "AI 개발의 기타 입력 및 출력(데이터, 알고리즘, 훈련된 모델)은 쉽게 공유할 수 있고 비경합적인 무형 상품이므로 본질적으로 제어하기가 어렵습니다."라고 논문은 말합니다.

일단 모델이 공개되거나 유출되면 모델이 게시되면 지니를 다시 병에 넣어두거나 인터넷을 통해 퍼지는 것을 막을 수 없다는 주장입니다.

연구원들은 또한 모델의 오용을 방지하려는 노력이 신뢰할 수 없는 것으로 입증되었다고 강조했습니다. 한 예에서 저자는 모델이 공격적인 언어를 생성하는 것을 방지하기 위해 Meta의 Llama 2에서 보호 장치를 연구자들이 쉽게 해체할 수 있었다는 점을 강조했습니다.

극단적으로 말하면, 충분히 진보된 이중용도 모델이 채택되어 개발 화학 또는 생물학 무기.

이 논문은 AI 하드웨어 규제가 만병통치약이 아니며 업계의 다른 측면에서 규제의 필요성을 없애지 못한다는 점을 인정합니다.

그러나 CEO 샘 알트만(Sam Altman)의 생각을 고려하면 여러 OpenAI 연구진의 참여를 무시하기는 어렵다. 시도 AI 규제에 관한 내러티브를 제어합니다. ®

타임 스탬프 :

더보기 등록