AI의 성장과 발전은 지난 몇 년 동안 기하급수적이었습니다. Statista 보고서 2024년까지 글로벌 AI 시장은 3000년 126억 달러에 비해 약 2015억 달러의 엄청난 수익을 창출할 것이라고 합니다. 그러나 이제 기술 리더들은 AI의 다양한 위험에 대해 우리에게 경고하고 있습니다.
특히, 최근의 물결 생성 적 AI ChatGPT와 같은 모델은 의료, 교육, 재원등. 이러한 AI 지원 개발은 악의적인 에이전트가 노출할 수 있는 많은 AI 단점으로 인해 취약합니다.
AI 전문가들이 최근 개발에 대해 말하는 내용을 논의하고 AI의 잠재적 위험을 강조해 보겠습니다. 또한 이러한 위험을 관리하는 방법에 대해서도 간략하게 설명합니다.
AI의 위험과 관련된 기술 리더 및 우려 사항
제프리 힌튼
유명한 AI 기술 리더이자 이 분야의 대부인 제프리 힌튼(Geoffrey Hinton)은 최근 구글을 그만뒀습니다. 그의 우려를 표명했다 AI의 급속한 발전과 잠재적 위험에 대해. Hinton은 AI 챗봇이 인간의 지능을 능가하면 "아주 무섭게" 될 수 있다고 믿습니다.
힌튼 말한다 :
“바로 지금 우리가 보고 있는 것은 GPT-4가 가진 일반 지식의 양에서 사람을 능가하는 것과 같은 것입니다. 추론의 관점에서 보면 그다지 좋지는 않지만 이미 간단한 추론을 수행합니다. 그리고 진행률을 감안할 때 상황이 상당히 빠르게 개선될 것으로 예상합니다. 그래서 우리는 그것에 대해 걱정할 필요가 있습니다.”
또한 그는 "나쁜 행위자"가 로봇이 하위 목표를 갖도록 허용하는 것과 같은 "나쁜 일"에 AI를 사용할 수 있다고 믿습니다. 그의 우려에도 불구하고 Hinton은 AI가 단기적인 이점을 가져올 수 있다고 믿지만 AI 안전 및 제어에도 많은 투자를 해야 합니다.
엘론 머스크
Elon Musk의 AI 참여는 Deepmind 2010년 공동 창업 OpenAI Tesla의 자율 주행 차량에 AI를 통합합니다.
그는 AI에 열광하지만 AI의 위험성에 대한 우려를 자주 제기한다. 머스크는 강력한 AI 시스템이 핵무기보다 문명에 더 위험할 수 있다고 말합니다. 인터뷰에서 폭스 뉴스 2023년 XNUMX월에 그는 이렇게 말했습니다.
“AI는 잘못 관리된 항공기 설계나 생산 유지 관리 또는 불량 자동차 생산보다 더 위험합니다. 가능성이 있다는 점에서-그러나 작은 사람은 그 가능성을 생각할 수 있지만-사소하지 않고 문명 파괴의 가능성이 있습니다.”
더욱이 머스크는 잠재적인 위험으로부터 안전을 보장하기 위해 AI에 대한 정부 규제를 지지하지만 "그렇게 재미있지는 않다".
자이언트 AI 실험 일시 중지: 수천 명의 AI 전문가가 지원하는 공개 서한
Future of Life Institute는 공개 서한을 발표했습니다. 22년 2023월 XNUMX일. 서신은 XNUMX년 XNUMX월 XNUMX일 AI 시스템 개발이 더욱 발전 보다 GPT-4. 저자는 AI 시스템이 개발되는 속도가 심각한 사회경제적 문제를 야기한다는 우려를 표명합니다.
또한 편지에는 AI 개발자가 정책 입안자와 협력하여 AI 거버넌스 시스템을 문서화해야 한다고 명시되어 있습니다. 2023년 31,000월 현재 XNUMX명 이상의 AI 개발자, 전문가 및 기술 리더가 이 서한에 서명했습니다. 주목할만한 서명자로는 Elon Musk, Steve Wozniak(Apple 공동 창립자), Emad Mostaque(Stability AI CEO), Yoshua Bengio(Turing Prize 수상자) 등이 있습니다.
AI 개발 중단에 대한 반론
두 명의 저명한 AI 리더, 앤드류 응, 얀 르쿤, 고급 AI 시스템 개발에 대한 XNUMX개월 금지에 반대하고 중단을 나쁜 생각으로 간주했습니다.
Ng는 AI가 편향, 권력 집중 등의 위험이 있지만 교육, 의료, 반응형 코칭과 같은 분야에서 AI가 창출하는 가치는 엄청나다고 말합니다.
Yann LeCun은 최종 사용자에게 도달하는 AI 제품이 규제될 수 있지만 연구 개발을 중단해서는 안 된다고 말합니다.
AI의 잠재적 위험 및 즉각적인 위험은 무엇입니까?
1. 일자리 이동
AI 전문가들은 지능형 AI 시스템이 인지적이고 창의적인 작업을 대체할 수 있다고 믿습니다. 투자은행 골드만삭스는 300 채용 정보 생성 AI에 의해 자동화됩니다.
따라서 심각한 경제 침체를 일으키지 않도록 AI 개발에 대한 규제가 있어야 한다. 이 문제를 해결하기 위해 직원의 기술을 향상하고 재교육하는 교육 프로그램이 있어야 합니다.
2. 편향된 AI 시스템
편견 성별, 인종 또는 피부색에 대해 인간 사이에 만연한 것은 AI 시스템 훈련에 사용되는 데이터에 무심코 스며들어 AI 시스템을 편향되게 만들 수 있습니다.
예를 들어 구직과 관련하여 편향된 AI 시스템은 특정 인종 배경을 가진 개인의 이력서를 폐기하여 채용 시장에서 차별을 만들 수 있습니다. ~ 안에 법 집행, 편향된 예측 치안은 특정 이웃이나 인구 통계 그룹을 불균형하게 표적으로 삼을 수 있습니다.
따라서 AI 위험, 특히 편견을 다루는 포괄적인 데이터 전략이 필수적입니다. AI 시스템은 공정성을 유지하기 위해 자주 평가되고 감사되어야 합니다.
3. 안전에 중요한 AI 애플리케이션
자율 주행 차량, 의료 진단 및 치료, 항공 시스템, 원자력 발전소 제어 등은 모두 안전에 중요한 AI 애플리케이션의 예입니다. 이러한 AI 시스템은 사소한 오류라도 인간의 생명이나 환경에 심각한 영향을 미칠 수 있으므로 신중하게 개발해야 합니다.
예를 들어, AI 소프트웨어의 오작동 기동 특성 증강 시스템(MCAS) 부분적으로는 737년 2018월과 2019년 346월에 두 대의 보잉 XNUMX MAX가 추락한 데 기인합니다. 슬프게도 두 번의 추락으로 XNUMX명이 사망했습니다.
AI 시스템의 위험을 어떻게 극복할 수 있습니까? – 책임감 있는 AI 개발 및 규제 준수
책임 있는 AI(RAI) 프라이버시를 보장하고 법적 규정과 사회적 규범을 따르는 공정하고 책임 있고 투명하며 안전한 AI 시스템을 개발하고 배포하는 것을 의미합니다. RAI 구현은 AI 시스템의 광범위하고 빠른 개발로 인해 복잡할 수 있습니다.
그러나 대기업은 다음과 같은 RAI 프레임워크를 개발했습니다.
전 세계의 AI 연구소는 이러한 원칙에서 영감을 얻거나 신뢰할 수 있는 AI 시스템을 만들기 위해 책임 있는 자체 AI 프레임워크를 개발할 수 있습니다.
AI 규정 준수
데이터는 AI 시스템의 필수 구성 요소이므로 AI 기반 조직 및 연구소는 데이터 보안, 개인 정보 보호 및 안전을 보장하기 위해 다음 규정을 준수해야 합니다.
-
GDPR (일반 데이터 보호 규정) – EU의 데이터 보호 프레임워크.
-
CCPA(캘리포니아 소비자 개인 정보 보호법) – 개인 정보 보호 권리 및 소비자 보호를 위한 캘리포니아 주 법령입니다.
-
HIPAA(건강 보험 이전 및 책임에 관한 법률) – 환자의 의료 데이터를 보호하는 미국 법률.
-
EU AI 법및 신뢰할 수 있는 AI를 위한 윤리 지침 – 유럽위원회 AI 규정.
시민을 보호하기 위해 여러 국가에서 제정한 다양한 지역 및 현지 법률이 있습니다. 데이터에 대한 규정 준수를 보장하지 못하는 조직은 심각한 처벌을 받을 수 있습니다. 예를 들어 GDPR은 벌금을 다음과 같이 설정했습니다. 20천만 유로 또는 연간 이익의 4% 불법 데이터 처리, 입증되지 않은 데이터 동의, 데이터 주체의 권리 침해 또는 보호되지 않은 데이터 전송과 같은 심각한 침해의 경우.
AI 개발 및 규제 – 현재와 미래
매월 AI 발전은 전례 없는 수준에 도달하고 있습니다. 그러나 수반되는 AI 규정 및 거버넌스 프레임워크는 뒤처져 있습니다. 더 견고하고 구체적이어야 합니다.
기술 리더와 AI 개발자는 적절하게 규제되지 않을 경우 AI의 위험에 대해 경종을 울려 왔습니다. AI의 연구 개발은 많은 분야에서 더 많은 가치를 가져올 수 있지만 이제 신중한 규제가 필수적이라는 것은 분명합니다.
링크: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves
출처: https://www.unite.ai
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- EVM 금융. 탈중앙화 금융을 위한 통합 인터페이스. 여기에서 액세스하십시오.
- 퀀텀미디어그룹. IR/PR 증폭. 여기에서 액세스하십시오.
- PlatoAiStream. Web3 데이터 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 출처: https://www.fintechnews.org/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/
- :있다
- :이다
- :아니
- 000
- 2015
- 2018
- 2019
- 2023
- 2024
- 31
- 7
- a
- 소개
- 책임
- 책임이있는
- 가로질러
- 행동
- 구애
- 적절하게
- 많은
- 발전
- 자치령 대표
- AI
- AI 거버넌스
- 항공기
- All
- 허용
- 이미
- 또한
- 이기는하지만
- 중
- 양
- an
- 및
- 연간
- Apple
- 어플리케이션
- Apr
- 있군요
- 인수
- 약
- AS
- 감사
- 작성자
- 자동화
- 자발적인
- 자치 차량
- 비행
- 뒷받침 된
- 배경
- 나쁜
- 반
- 은행
- BBC
- BE
- 때문에
- 가
- 된
- 시작
- 존재
- 믿으세요
- 생각
- 혜택
- 더 나은
- 바이어스
- 치우친
- 큰
- 큰 기술
- 억원
- 보잉
- 간단히
- 가져
- 넓은
- 비자 면제 프로그램에 해당하는 국가의 시민권을 가지고 있지만
- by
- CA
- 캘리포니아
- 통화
- CAN
- 기능
- 자동차
- 주의
- 원인
- 조심성 있게
- CDC
- 대표 이사
- 도전
- 과제
- 특성
- 잡담
- ChatGPT
- 시민
- 문명
- 선명한
- 공동 설립자
- 코칭
- 인지
- 색
- 위원회
- 기업
- 비교
- 복잡한
- compliance
- 준수
- 구성 요소
- 포괄적 인
- 집중
- 우려 사항
- 동의
- 결과
- 고려
- 소비자
- 소비자 프라이버시
- 소비자 보호
- 문맥
- 제어
- 수
- 국가
- 크래시
- 만든
- 만들기
- 창조적 인
- 위험한
- 위험
- 데이터
- 데이터 처리
- 데이터 보호
- 데이터 보안
- 데이터 전략
- 거래
- Deepmind
- 인구학의
- 배치
- 디자인
- 무례
- 개발
- 개발
- 개발자
- 개발
- 개발
- 개발
- 다른
- 토론
- do
- 문서
- 문서 인공 지능
- 하지
- 하지 않습니다
- 하강
- 두
- 초기의
- EC
- 간결한
- 경기 침체
- 교육
- 교육적인
- 엘론
- 엘론 머스크
- 직원
- 확인
- 열광적 인
- 실재
- 환경
- 오류
- 필수
- 견적
- 등
- 윤리학
- EU
- 유럽
- 유럽
- 유럽위원회
- 평가
- 조차
- 모든
- 예
- 기대
- 실험
- 전문가
- 전문가들은 믿는다.
- 기하 급수적 인
- 급행
- 실패
- 공정한
- 유명한
- FAST
- 를
- 들
- Fields
- 끝
- 먼저,
- 따라
- 수행원
- 럭셔리
- 포브스
- 뼈대
- 프레임 워크
- 자주
- 에
- 장난
- 추가
- GDPR
- 성별
- 일반
- 일반적인 자료
- 일반 데이터 보호 규정
- 생성
- 생성적인
- 제너레이티브 AI
- 얻을
- 거대한
- 주어진
- 글로벌
- 공
- 골드만
- 골드만 삭스
- 좋은
- 구글
- 통치
- Government
- 여러 떼
- 성장
- 가이드 라인
- 정지
- 있다
- he
- 건강
- 건강 보험
- 건강 관리
- 무겁게
- 높이
- 강조
- 강조
- 그의
- 방법
- 그러나
- HTTPS
- 사람의
- 인간 지능
- IBM
- 생각
- if
- 즉시
- 피할 수 없는
- 구현
- in
- 포함
- 통합
- 개인
- 영감
- 예
- 학회
- 보험
- 완전한
- 인텔리전스
- 지능형
- 국제 노동자 동맹
- 인터뷰
- 으로
- 소개
- 사다
- 투자
- 참여
- IT
- 그
- 일
- JPG
- 유월
- 유지
- 지식
- 실험실
- 보온재
- 법규
- 리더
- 지도자
- 왼쪽 (left)
- 이용약관
- 법제정 담당
- 편지
- 생활
- 처럼
- 지방의
- 긴
- 유지
- 확인
- 유튜브 영상을 만드는 것은
- 관리
- .
- Mar
- 시장
- 최대
- 최대 폭
- XNUMX월..
- 방법
- 의료
- 의료 데이터
- Microsoft
- 백만
- 미성년자
- 모델
- 달
- 개월
- 배우기
- 사향
- 절대로 필요한 것
- 필요
- 신제품
- 주목할 만한
- 지금
- 핵무기
- 원자력
- 십월
- of
- on
- ONE
- 열 수
- 반대하는
- or
- 조직
- 위에
- 극복하다
- 자신의
- 평화
- 부품
- 특별히
- 통과
- 과거
- 중지
- 사람들
- 사람
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 치안
- 정책 입안자
- 포즈
- 가능성
- 힘
- 강한
- 제시
- 유행
- 원칙
- 개인 정보 보호
- 상
- 처리
- 생산
- 제품
- 프로그램
- 진행
- 현저한
- 보호
- 보호
- 출판
- 경주
- 제기
- 빠른
- 율
- 도달
- 에 도달
- 최근
- 최근에
- 모집
- 생각하다
- 지역적인
- 규제
- 규제
- 규정
- 규정하는
- 규제 준수
- 관련
- 상대적인
- 교체
- 연구
- 연구 및 개발
- 책임
- 반응
- 결과
- 수익
- 연락해주세요
- 권리
- 위험
- 로봇
- 강력한
- s
- 삭스
- 보호
- 안전
- 말했다
- 라고
- 속담
- 라고
- 부문
- 안전해야합니다.
- 보안
- 보고
- 감각
- 진지한
- 세트
- 심한
- 단기간의
- 단점
- 영상을
- 서명 기관
- 서명
- 단순, 간단, 편리
- SIX
- 여섯 달
- 작은
- So
- 사회적
- 사회 경제적 인
- 소프트웨어
- 일부
- 구체적인
- 안정
- 주 정부
- 미국
- 스티브
- 스티브 워즈니악
- 정지
- 전략
- 그후
- 이러한
- 지원
- 능가
- 체계
- 시스템은
- 받아
- 목표
- 작업
- 기술
- 하이테크 기업
- 일시적인
- 조건
- 보다
- 그
- XNUMXD덴탈의
- 그들의
- 그들
- 그때
- 그곳에.
- Bowman의
- 그들
- 일
- 이
- 에
- 터치
- 트레이닝
- 이전
- 투명한
- 치료
- 거대한
- 신뢰할 수있는
- 신뢰할 수있는
- 튜링
- 두
- 우리
- 전례가없는
- 긴급
- us
- 사용
- 익숙한
- 가치
- 여러
- 차량
- 위반
- 취약
- 경고
- 웨이브
- 방법..
- we
- 무기
- 뭐
- 어느
- 누구
- 의지
- 수상자
- 과
- 작업
- 걱정
- 년
- 유튜브
- 제퍼 넷