AI의 위험과 강력한 AI 규제의 시급성을 강조하는 기술 리더

AI의 위험과 강력한 AI 규제의 시급성을 강조하는 기술 리더

AI의 위험과 강력한 AI 규제의 시급성을 강조하는 기술 리더
AI의 성장과 발전은 지난 몇 년 동안 기하급수적이었습니다. Statista 보고서 2024년까지 글로벌 AI 시장은 3000년 126억 달러에 비해 약 2015억 달러의 엄청난 수익을 창출할 것이라고 합니다. 그러나 이제 기술 리더들은 AI의 다양한 위험에 대해 우리에게 경고하고 있습니다.
특히, 최근의 물결 생성 적 AI ChatGPT와 같은 모델은 의료, 교육, 재원등. 이러한 AI 지원 개발은 악의적인 에이전트가 노출할 수 있는 많은 AI 단점으로 인해 취약합니다.
AI 전문가들이 최근 개발에 대해 말하는 내용을 논의하고 AI의 잠재적 위험을 강조해 보겠습니다. 또한 이러한 위험을 관리하는 방법에 대해서도 간략하게 설명합니다.

AI의 위험과 관련된 기술 리더 및 우려 사항

제프리 힌튼

유명한 AI 기술 리더이자 이 분야의 대부인 제프리 힌튼(Geoffrey Hinton)은 최근 구글을 그만뒀습니다. 그의 우려를 표명했다 AI의 급속한 발전과 잠재적 위험에 대해. Hinton은 AI 챗봇이 인간의 지능을 능가하면 "아주 무섭게" 될 수 있다고 믿습니다.
힌튼 말한다 :
“바로 지금 우리가 보고 있는 것은 GPT-4가 가진 일반 지식의 양에서 사람을 능가하는 것과 같은 것입니다. 추론의 관점에서 보면 그다지 좋지는 않지만 이미 간단한 추론을 수행합니다. 그리고 진행률을 감안할 때 상황이 상당히 빠르게 개선될 것으로 예상합니다. 그래서 우리는 그것에 대해 걱정할 필요가 있습니다.”
또한 그는 "나쁜 행위자"가 로봇이 하위 목표를 갖도록 허용하는 것과 같은 "나쁜 일"에 AI를 사용할 수 있다고 믿습니다. 그의 우려에도 불구하고 Hinton은 AI가 단기적인 이점을 가져올 수 있다고 믿지만 AI 안전 및 제어에도 많은 투자를 해야 합니다.

엘론 머스크

Elon Musk의 AI 참여는 Deepmind 2010년 공동 창업 OpenAI Tesla의 자율 주행 차량에 AI를 통합합니다.
그는 AI에 열광하지만 AI의 위험성에 대한 우려를 자주 제기한다. 머스크는 강력한 AI 시스템이 핵무기보다 문명에 더 위험할 수 있다고 말합니다. 인터뷰에서 폭스 뉴스 2023년 XNUMX월에 그는 이렇게 말했습니다.
“AI는 잘못 관리된 항공기 설계나 생산 유지 관리 또는 불량 자동차 생산보다 더 위험합니다. 가능성이 있다는 점에서-그러나 작은 사람은 그 가능성을 생각할 수 있지만-사소하지 않고 문명 파괴의 가능성이 있습니다.”
더욱이 머스크는 잠재적인 위험으로부터 안전을 보장하기 위해 AI에 대한 정부 규제를 지지하지만 "그렇게 재미있지는 않다".

자이언트 AI 실험 일시 중지: 수천 명의 AI 전문가가 지원하는 공개 서한

Future of Life Institute는 공개 서한을 발표했습니다. 22년 2023월 XNUMX일. 서신은 XNUMX년 XNUMX월 XNUMX일 AI 시스템 개발이 더욱 발전 보다 GPT-4. 저자는 AI 시스템이 개발되는 속도가 심각한 사회경제적 문제를 야기한다는 우려를 표명합니다.
또한 편지에는 AI 개발자가 정책 입안자와 협력하여 AI 거버넌스 시스템을 문서화해야 한다고 명시되어 있습니다. 2023년 31,000월 현재 XNUMX명 이상의 AI 개발자, 전문가 및 기술 리더가 이 서한에 서명했습니다. 주목할만한 서명자로는 Elon Musk, Steve Wozniak(Apple 공동 창립자), Emad Mostaque(Stability AI CEO), Yoshua Bengio(Turing Prize 수상자) 등이 있습니다.

AI 개발 중단에 대한 반론

두 명의 저명한 AI 리더, 앤드류 응, 얀 르쿤, 고급 AI 시스템 개발에 대한 XNUMX개월 금지에 반대하고 중단을 나쁜 생각으로 간주했습니다.
Ng는 AI가 편향, 권력 집중 등의 위험이 있지만 교육, 의료, 반응형 코칭과 같은 분야에서 AI가 창출하는 가치는 엄청나다고 말합니다.
Yann LeCun은 최종 사용자에게 도달하는 AI 제품이 규제될 수 있지만 연구 개발을 중단해서는 안 된다고 말합니다.

AI의 잠재적 위험 및 즉각적인 위험은 무엇입니까?

1. 일자리 이동

AI 전문가들은 지능형 AI 시스템이 인지적이고 창의적인 작업을 대체할 수 있다고 믿습니다. 투자은행 골드만삭스는 300 채용 정보 생성 AI에 의해 자동화됩니다.
따라서 심각한 경제 침체를 일으키지 않도록 AI 개발에 대한 규제가 있어야 한다. 이 문제를 해결하기 위해 직원의 기술을 향상하고 재교육하는 교육 프로그램이 있어야 합니다.

2. 편향된 AI 시스템

편견 성별, 인종 또는 피부색에 대해 인간 사이에 만연한 것은 AI 시스템 훈련에 사용되는 데이터에 무심코 스며들어 AI 시스템을 편향되게 만들 수 있습니다.
예를 들어 구직과 관련하여 편향된 AI 시스템은 특정 인종 배경을 가진 개인의 이력서를 폐기하여 채용 시장에서 차별을 만들 수 있습니다. ~ 안에 법 집행, 편향된 예측 치안은 특정 이웃이나 인구 통계 그룹을 불균형하게 표적으로 삼을 수 있습니다.
따라서 AI 위험, 특히 편견을 다루는 포괄적인 데이터 전략이 필수적입니다. AI 시스템은 공정성을 유지하기 위해 자주 평가되고 감사되어야 합니다.

3. 안전에 중요한 AI 애플리케이션

자율 주행 차량, 의료 진단 및 치료, 항공 시스템, 원자력 발전소 제어 등은 모두 안전에 중요한 AI 애플리케이션의 예입니다. 이러한 AI 시스템은 사소한 오류라도 인간의 생명이나 환경에 심각한 영향을 미칠 수 있으므로 신중하게 개발해야 합니다.
예를 들어, AI 소프트웨어의 오작동 기동 특성 증강 시스템(MCAS) 부분적으로는 737년 2018월과 2019년 346월에 두 대의 보잉 XNUMX MAX가 추락한 데 기인합니다. 슬프게도 두 번의 추락으로 XNUMX명이 사망했습니다.

AI 시스템의 위험을 어떻게 극복할 수 있습니까? – 책임감 있는 AI 개발 및 규제 준수

책임 있는 AI(RAI) 프라이버시를 보장하고 법적 규정과 사회적 규범을 따르는 공정하고 책임 있고 투명하며 안전한 AI 시스템을 개발하고 배포하는 것을 의미합니다. RAI 구현은 AI 시스템의 광범위하고 빠른 개발로 인해 복잡할 수 있습니다.
그러나 대기업은 다음과 같은 RAI 프레임워크를 개발했습니다.
  1. Microsoft의 책임 있는 AI
  2. 구글의 AI 원칙
  3. IBM의 신뢰할 수 있는 AI
전 세계의 AI 연구소는 이러한 원칙에서 영감을 얻거나 신뢰할 수 있는 AI 시스템을 만들기 위해 책임 있는 자체 AI 프레임워크를 개발할 수 있습니다.

AI 규정 준수

데이터는 AI 시스템의 필수 구성 요소이므로 AI 기반 조직 및 연구소는 데이터 보안, 개인 정보 보호 및 안전을 보장하기 위해 다음 규정을 준수해야 합니다.
  1. GDPR (일반 데이터 보호 규정) – EU의 데이터 보호 프레임워크.
  2. CCPA(캘리포니아 소비자 개인 정보 보호법) – 개인 정보 보호 권리 및 소비자 보호를 위한 캘리포니아 주 법령입니다.
  3. HIPAA(건강 보험 이전 및 책임에 관한 법률) – 환자의 의료 데이터를 보호하는 미국 법률.
  4. EU AI 법 신뢰할 수 있는 AI를 위한 윤리 지침 – 유럽위원회 AI 규정.
시민을 보호하기 위해 여러 국가에서 제정한 다양한 지역 및 현지 법률이 있습니다. 데이터에 대한 규정 준수를 보장하지 못하는 조직은 심각한 처벌을 받을 수 있습니다. 예를 들어 GDPR은 벌금을 다음과 같이 설정했습니다. 20천만 유로 또는 연간 이익의 4% 불법 데이터 처리, 입증되지 않은 데이터 동의, 데이터 주체의 권리 침해 또는 보호되지 않은 데이터 전송과 같은 심각한 침해의 경우.

AI 개발 및 규제 – 현재와 미래

매월 AI 발전은 전례 없는 수준에 도달하고 있습니다. 그러나 수반되는 AI 규정 및 거버넌스 프레임워크는 뒤처져 있습니다. 더 견고하고 구체적이어야 합니다.
기술 리더와 AI 개발자는 적절하게 규제되지 않을 경우 AI의 위험에 대해 경종을 울려 왔습니다. AI의 연구 개발은 많은 분야에서 더 많은 가치를 가져올 수 있지만 이제 신중한 규제가 필수적이라는 것은 분명합니다.

링크: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

출처: https://www.unite.ai

AI의 위험성과 강력한 AI 규제의 시급성을 강조하는 기술 리더들 PlatoBlockchain Data Intelligence. 수직 검색. 일체 포함.

타임 스탬프 :

더보기 핀 테크 뉴스