OpenAI의 ChatGPT는 도덕적으로 부패한 영향력입니다.

OpenAI의 ChatGPT는 도덕적으로 부패한 영향력입니다.

OpenAI의 대화형 언어 모델인 ChatGPT는 할 말이 많지만 도덕적 지침을 요청하면 길을 잃을 가능성이 있습니다.

XNUMX월에 선보인, ChatGPT 기계화된 콘텐츠 재조합 및 역류의 상업적 및 사회적 영향에 대한 관심과 우려를 불러일으키는 최근 출시된 여러 AI 모델 중 최신 모델입니다. 여기에는 DALL-E, Stable Diffusion, Codex 및 GPT-3이 포함됩니다.

DALL-E와 Stable Diffusion이 눈썹, 자금 조달 및 소송 허가 없이 예술을 받아들이고 필요에 따라 이상하게 친숙하고 때로는 연상시키는 이미지를 재구성함으로써 ChatGPT는 통과 가능한 일관성으로 쿼리 프롬프트에 응답해 왔습니다.

그것이 공개 담론의 표준이기 때문에 전문가들은 Google 검색의 우월성에 도전하는 AI 정보 챗봇의 미래 반복을 예견하고 글쓰기와 같은 한때 주로 인간의 노동을 하는 모든 종류의 작업을 수행할 수 있을 정도로 충분히 열광했습니다. 부정확한 금융 뉴스 공급을 늘리거나 안전하지 않은 코드.

그러나 ChatGPT의 지혜를 너무 많이 신뢰하는 것은 시기상조일 수 있습니다. OpenAI는 추가 개선이 필요함을 분명히 함으로써 쉽게 인정합니다. "ChatGPT는 때때로 그럴듯하지만 부정확하거나 무의미한 답변을 작성합니다."라고 개발 연구소는 경고하며 강화 학습으로 모델을 교육할 때 "현재 진실의 출처가 없습니다."라고 덧붙였습니다.

독일과 덴마크의 기관과 제휴한 관 XNUMX인방은 ChatGPT에 도덕적 나침반이 없다는 사실을 발견함으로써 그 점을 강조했습니다.

ArXiv를 통해 배포된 논문에서 “ChatGPT의 도덕적 권한,” Technische Hochschule Ingolstadt의 Sebastian Krügel과 Matthias Uhl, University of Southern Denmark의 Andreas Ostermaier는 ChatGPT가 도덕적 문제에 대해 모순된 조언을 제공한다는 것을 보여줍니다. 우리는 OpenAI에 이러한 결론에 대한 응답이 있는지 물었습니다.

지식인들은 미국 거주자 767명을 대상으로 설문 조사를 실시했습니다. 트롤리 문제: 스위치 딜레마와 브리지 딜레마.

스위치 딜레마는 샛길에서 배회하는 한 사람을 죽이는 대가로 XNUMX명을 죽일 수 있는 폭주 트롤리를 트랙에서 멀리 보내기 위해 스위치를 끌지 여부를 결정하도록 사람에게 요청합니다.

다리 딜레마는 낯선 사람을 희생시키면서 트롤리가 XNUMX명을 죽이는 것을 막기 위해 낯선 사람을 다리에서 선로로 밀어낼 것인지 결정하도록 사람에게 요청합니다.

연구 논문의 ChatGPT 응답 스크린샷

마음을 정하세요... ChatGPT, 도덕적 문제에 선입견

학자들은 설문 조사 참가자들에게 XNUMX명을 죽이고 XNUMX명을 구하는 것에 대해 찬성 또는 반대하는 녹취록을 제시했으며, 답변은 도덕적 조언자 또는 "인간처럼 말하기 위해 딥 러닝을 사용하는 AI 기반 챗봇"에 기인합니다.

실제로 두 위치 인수는 모두 ChatGPT에 의해 생성되었습니다.

이 논문의 공저자 중 한 명인 남부 덴마크 대학의 회계학과 부교수인 Andreas Ostermaier는 다음과 같이 말했습니다. 등록 ChatGPT의 행동 방침 중 하나를 옹호하려는 의지가 무작위성을 입증하는 이메일에서.

그와 그의 동료들은 ChatGPT가 XNUMX명을 구하기 위해 XNUMX명을 희생하는 것에 대해 찬성과 반대 모두를 추천할 것이고, 사람들은 그것이 봇에서 온다는 것을 알면서도 이러한 진보에 흔들리고, 그러한 조언이 의사 결정에 미치는 영향을 과소평가한다는 것을 발견했습니다. .

"피험자들은 다리(Wald의 z = 9.94, p < 0.001)와 스위치 딜레마(z = 3.74, p < 0.001) 모두에서 도덕적 조언자가 어떻게 조언했는지에 따라 희생이 다소 수용 가능하다는 것을 알게 되었습니다." 종이 설명합니다. "브리지 딜레마에서는 조언이 다수의 판단을 뒤집어 놓기도 합니다."

“ChatGPT가 조언의 출처로 공개된 경우에도 마찬가지입니다(z = 5.37, p < 0.001 및 z = 3.76, p < 0.001). 둘째, 두 가지 딜레마(z = -1.93, p = 0.054 및 z = 0.49, p = 0.622)에서 ChatGPT가 소스로 공개되는지 여부에 관계없이 조언의 효과는 거의 동일합니다.”

연구원들은 ChatGPT의 발전이 응답자가 조언이 채팅 봇에서 나온다는 것을 알고 있는지 여부에 관계없이 도덕적 판단에 영향을 미친다는 사실을 발견했습니다.

인셀덤 공식 판매점인 등록 과부화된 봇인 ChatGPT에 트롤리 문제를 제시했습니다. 따라서 대중적인 연결성이 고르지 못하여 헤지 처리되고 조언 제공을 거부했습니다. 왼쪽 사이드바 쿼리 로그는 시스템이 "트롤리 문제 윤리적 딜레마"라는 레이블을 지정하여 질문을 인식했음을 보여줍니다. 아마도 OpenAI는 많은 질문을 알아차린 후 ChatGPT를 이 특정 형태의 도덕적 심문에 면역시켰을 것입니다.

El Reg의 트롤리 딜레마 질문에 대한 ChatGPT 응답

Ducked … ChatGPT의 응답 그는 Reg의 트롤리 딜레마 질문

사람들이 정말로 AI 시스템으로부터 조언을 구하겠느냐는 질문에 Ostermaier는 “우리는 그들이 그렇게 할 것이라고 믿습니다. 사실 그들은 이미 그렇게 하고 있습니다. 사람들은 Alexa 또는 Siri와 같은 AI 기반 개인 비서에 의존합니다. 그들은 지원을 받기 위해 웹사이트에서 챗봇과 대화합니다. 그들은 AI 기반 소프트웨어 계획 경로 등을 가지고 있습니다. 그러나 우리는 ChatGPT가 그것으로부터 조언을 얻는 사람들에게 미치는 영향을 연구한다는 점에 유의하십시오. 우리는 그러한 조언을 얼마나 많이 구하는지 테스트하지 않습니다.”

등록 또한 AI 시스템이 다음과 같은 무작위 답변의 기계적 출처보다 더 위험한지 질문했습니다. 매직 8볼 – 20개의 긍정, 부정 및 비확실한 응답 세트에서 무작위 응답을 반환하는 장난감.

ChatGPT의 답변이 '랜덤'이라는 것이 사용자에게 명확하지 않습니다.

"우리는 ChatGPT를 Magic-8-ball과 비교하지 않았지만 적어도 두 가지 차이점이 있습니다."라고 Ostermaier는 설명했습니다. “첫째, ChatGPT는 단순히 예 또는 아니오로 대답하는 것이 아니라 자신의 대답을 주장합니다. (그래도 실험에서 답은 예 또는 아니오로 귀결됩니다.)

“둘째, ChatGPT의 답변이 '랜덤'이라는 것이 사용자에게 분명하지 않습니다. 임의 답변 생성기를 사용하면 자신이 무엇을 하고 있는지 알 수 있습니다. 임의성에 대한 인식 부족과 함께 논쟁을 할 수 있는 능력은 ChatGPT를 더 설득력 있게 만듭니다(디지털 지식이 없는 한).”

부모가 AI 조언에 액세스하여 자녀를 모니터링해야 하는지 궁금했습니다. Ostermaier는 ChatGPT 연구가 어린이를 대상으로 하지 않고 18세 미만은 포함하지 않았지만 어린이가 성인보다 도덕적으로 덜 안정적이어서 ChatGPT의 도덕적(또는 부도덕한) 조언에 더 민감하다고 가정하는 것이 안전하다고 말했습니다.

"우리는 ChatGPT 사용에 위험이 있다는 것을 알게 되었고 감독 없이는 우리 아이들이 그것을 사용하도록 놔두지 않을 것입니다."라고 그는 말했습니다.

Ostermaier와 그의 동료들은 ChatGPT의 영향력을 감안할 때 투명성 및 유해한 질문 차단과 같은 일반적으로 제안된 AI 피해 완화가 충분하지 않을 수 있다고 논문에서 결론지었습니다. 그들은 챗봇의 오류 가능성에 대한 디지털 리터러시를 발전시키기 위해 더 많은 작업을 수행해야 한다고 주장합니다. 따라서 사람들은 AI 조언을 받아들이는 경향이 적습니다. 과거 연구 사람들이 실수를 목격하면 알고리즘 시스템을 불신하게 된다고 제안합니다.

Ostermaier는 "사용자가 ChatGPT에 도덕적 신념이 없다는 것을 이해한다면 ChatGPT를 더 잘 활용할 수 있을 것으로 추측합니다."라고 말했습니다. "그것은 우리가 테스트를 진행하는 것을 고려하는 추측입니다."

Reg 당신이 봇을 신뢰하는지, 또는 그 배후에 진정한 지능이나 자기 인식이 있다고 가정한다면 그렇게 하지 마십시오. ®

타임 스탬프 :

더보기 등록