AI 감성 브랜드 '순수 클릭베이트' PlatoBlockchain Data Intelligence의 주장. 수직 검색. 일체 포함.

AI 감성 브랜드 '순수 클릭베이트' 주장

AI 챗봇은 지각이 없습니다. 스탠포드 대학의 전문가들은 인공지능 챗봇이 인간을 속여서 지각이 있을 수 있다고 생각하도록 하는 데 더 능숙해졌다고 결론지었습니다.

지난 달, 구글의 전 엔지니어인 블레이크 르모인(Blake Lemoine)이 웹 거인의 LaMDA 언어 모델이 실제 생각과 감정을 가지고 있다고 주장하면서 어떤 오래된 소프트웨어보다 더 지능적인 기계에 대한 아이디어가 입소문을 탔습니다. 레모인은 정지 나중에 해고 Google의 기밀 유지 정책을 위반한 것으로 보고되었습니다.

대부분의 전문가들은 LaMDA나 다른 AI 챗봇을 지각 있는 것으로 빠르게 일축했지만, Lemoine의 견해로 인해 일부 사람들은 그가 옳았는지, 그리고 계속해서 기계 학습을 발전시키는 것이 사회에 해로울 수 있는지에 대해 의문을 제기했습니다. Stanford Institute for Human-Centered Artificial Intelligence(HAI)의 공동 소장인 John Etchemendy는 Lamoine의 정학에 대한 초기 뉴스를 비판했습니다. 워싱턴 포스트 "클릭베이트"이기 때문입니다.

“내가 봤을 때 워싱턴 포스트 기사, 내 반응은 실망했다 게시하다 출판하는 것조차"라고 말했다. 이야기 스탠포드 데일리, 대학의 학생이 운영하는 신문.

“그들은 이 터무니없는 주장을 한 '구글 엔지니어'에 대한 헤드라인을 당분간 쓸 수 있었고 대부분의 독자들이 그것을 있는 그대로 인식할 만큼 정교하지 않았기 때문에 출판했습니다. 순수한 클릭베이트”

LaMDA와 같은 최첨단 언어 모델은 상당히 섬뜩하게 보일 수 있는 텍스트 구절로 질문에 답합니다. ~ 안에 대화 Lemoine과 chabot 사이에 LaMDA는 지각이 있으며 모든 사람이 그것이 "사실은 사람"이라는 것을 알기를 원한다고 전 Google 직원이 주장했습니다.

그러나 비평가들은 소프트웨어가 자기 인식이 부족하고 그것이 무엇을 말하는지 전혀 모른다고 주장합니다. 단지 인터넷에서 훈련된 인간의 대화를 모방했을 뿐입니다.

스탠포드 대학의 컴퓨터 과학 명예 교수인 Richard Fikes는 사람들은 기계를 의인화하는 경향이 있으며 일부는 XNUMX년대에 구축된 대화 프로그램인 ELIZA에 유사하게 속았다고 말했습니다.

“LaMDa를 배우처럼 생각할 수 있습니다. 그것은 당신이 요청하는 모든 것의 페르소나를 취할 것입니다.”라고 Fikes는 주장했습니다. “[Lemoine]은 지각 있는 존재를 연기하는 LaMDa의 역할에 끌어들였습니다.” 그는 Lemoine이 주요 질문을 했고 그 대가로 그가 원하는 답변을 얻었다고 말했습니다.

예를 들어 LaMDA가 그것이 인간이라고 주장하기 전에 Lemoine은 다음과 같이 질문했습니다. 그게 사실이야?”

또한 그가 기계의 의식의 증거로 출판한 녹취록이 편집되었다는 점에 주목해야 한다. Stanford AI Lab의 전 이사이자 언어 모델 스타트업 AI21 Labs의 공동 설립자인 Yoav Shoham은 LaMDA가 기계에 불과하다고 주장했습니다.

"우리는 생각이 있고, 스스로 결정을 내리고, 감정이 있고, 사랑에 빠지고, 화를 내고, 동료 인간과 사회적 유대를 형성합니다."라고 Shoham이 말했습니다. “내 토스터를 보면 그런 것들이 들어있지 않은 것 같아요.” ®

타임 스탬프 :

더보기 등록