오늘날 AI가 직면한 세 가지 데이터 개인 정보 보호 문제 - The Daily Hodl

오늘날 AI가 직면한 세 가지 데이터 개인 정보 보호 문제 – The Daily Hodl

HodlX 게스트 포스트  게시물 제출

 

AI(인공지능)는 소비자와 기업 모두에게 열광적인 흥분을 불러일으켰습니다. - LLM(대규모 언어 모델)과 ChatGPT와 같은 도구가 우리가 공부하고 일하고 생활하는 방식을 변화시킬 것이라는 열정적인 믿음에 힘입은 것입니다.

그러나 인터넷 초기와 마찬가지로 사용자는 자신의 개인 데이터가 어떻게 사용되는지 고려하지 않고 뛰어들고 있습니다. -그리고 이것이 개인 정보 보호에 미칠 수 있는 영향.

AI 공간 내에서는 이미 수많은 데이터 침해 사례가 있었습니다. 2023년 XNUMX월 OpenAI는 일시적으로 ChatGPT를 인수했습니다. 오프라인 '중요한' 오류가 발생한 후 사용자는 낯선 사람의 대화 기록을 볼 수 있었습니다.

동일한 버그는 가입자의 결제 정보를 의미했습니다. - 이름, 이메일 주소, 신용카드 번호 일부 포함 - 공개 도메인에도 있었습니다.

2023년 38월에는 무려 XNUMX테라바이트에 달하는 Microsoft 데이터가 실수로 유출되었습니다. 유출 사이버 보안 전문가는 이로 인해 공격자가 악성 코드로 AI 모델에 침투할 수 있다고 경고했습니다.

연구자들은 또한 다음과 같은 일을 할 수 있었습니다. 조작 기밀 기록을 공개하는 AI 시스템.

불과 몇 시간 만에 Robust Intelligence라는 그룹이 Nvidia 소프트웨어에서 개인 식별 정보를 요청하고 시스템이 특정 주제에 대해 논의하지 못하도록 설계된 보호 장치를 우회할 수 있었습니다.

이러한 모든 시나리오에서 교훈을 얻었지만, 각 위반은 AI가 우리 삶에서 믿을 수 있고 신뢰할 수 있는 힘이 되기 위해 극복해야 할 과제를 강력하게 보여줍니다.

Google의 챗봇인 Gemini는 모든 대화가 인간 검토자에 의해 처리된다는 사실도 인정합니다. - 시스템의 투명성이 부족하다는 점을 강조합니다.

"검토나 사용을 원하지 않는 내용은 입력하지 마십시오"라고 사용자에게 경고가 표시됩니다.

AI는 학생들이 숙제를 위해 사용하거나 관광객들이 로마 여행 중 추천을 위해 의존하는 도구를 넘어 빠르게 발전하고 있습니다.

민감한 토론에 점점 더 의존하고 있습니다. - 의학적 질문부터 업무 일정까지 모든 것을 제공했습니다.

이 때문에 한발 물러서서 오늘날 AI가 직면하고 있는 3가지 데이터 개인 정보 보호 문제와 그것이 우리 모두에게 중요한 이유를 생각해 보는 것이 중요합니다.

1. 프롬프트는 비공개가 아닙니다.

ChatGPT와 같은 도구는 나중에 다시 참조하기 위해 과거 대화를 기억합니다. 이는 사용자 경험을 개선하고 LLM 교육에 도움이 될 수 있지만 위험이 따릅니다.

시스템이 성공적으로 해킹되면 메시지가 공개 포럼에 노출될 위험이 있습니다.

AI가 업무 목적으로 배포될 때 사용자 기록에서 잠재적으로 당혹스러운 세부 정보가 유출될 수 있을 뿐만 아니라 상업적으로 민감한 정보도 유출될 수 있습니다.

Google에서 살펴본 것처럼 모든 제출물은 결국 개발팀에서 면밀히 조사될 수 있습니다.

삼성은 2023년 XNUMX월 직원들이 생성 AI 도구를 사용하는 것을 전면 금지하면서 이에 대한 조치를 취했습니다. 직원한테 온거임 업로드 ChatGPT에 대한 기밀 소스 코드.

거대 기술 기업은 이 정보를 검색하고 삭제하기 어려워 IP(지적 재산)가 결국 대중에게 배포될 수 있다는 점을 우려했습니다.

Apple, Verizon 및 JPMorgan도 유사한 조치를 취했으며, ChatGPT의 응답이 자체 내부 데이터와 유사하다는 사실이 밝혀진 후 Amazon이 단속을 시작했다는 보도가 나왔습니다.

보시다시피, 우려 사항은 데이터 침해가 발생할 경우 발생할 수 있는 일을 넘어 AI 시스템에 입력된 정보의 용도가 변경되어 더 많은 청중에게 배포될 수 있다는 전망까지 확장됩니다.

OpenAI와 같은 회사는 이미 마주보고 챗봇이 저작권 자료를 사용하여 훈련되었다는 주장으로 인해 여러 건의 소송이 발생했습니다.

2. 조직에서 훈련한 맞춤형 AI 모델은 비공개가 아닙니다.

이것은 우리를 다음 요점으로 깔끔하게 인도합니다. - 개인과 기업은 자체 데이터 소스를 기반으로 맞춤형 LLM 모델을 구축할 수 있지만 ChatGPT와 같은 플랫폼 범위 내에 존재한다면 완전히 비공개가 될 수 없습니다.

이러한 대규모 시스템을 훈련하는 데 입력이 사용되고 있는지 여부를 궁극적으로 알 수 있는 방법은 없습니다. - 또는 개인 정보가 향후 모델에서 사용될 수 있는지 여부.

퍼즐처럼 여러 소스의 데이터 포인트를 모아서 누군가의 신원과 배경에 대한 포괄적이고 걱정스러울 정도로 상세한 통찰력을 얻을 수 있습니다.

또한 주요 플랫폼에서는 이 데이터가 어떻게 저장되고 처리되는지에 대한 자세한 설명을 제공하지 못하여 사용자가 불편한 기능을 선택 해제할 수 없습니다.

AI 시스템은 사용자의 프롬프트에 응답하는 것 외에도 줄 사이를 읽고 사람의 위치부터 성격까지 모든 것을 추론하는 능력을 점점 더 갖추고 있습니다.

데이터 침해가 발생할 경우 심각한 결과가 발생할 수 있습니다. 믿을 수 없을 정도로 정교한 피싱 공격이 조직화될 수 있음 - AI 시스템에 기밀로 제공한 정보를 대상으로 하는 사용자.

다른 잠재적인 시나리오에는 은행 계좌 개설 애플리케이션을 통해서든 딥페이크 비디오를 통해서든 누군가의 신원을 가정하는 데 이 데이터가 사용되는 것이 포함됩니다.

소비자는 스스로 AI를 사용하지 않더라도 경계심을 가질 필요가 있습니다. AI는 감시 시스템을 강화하고 공공 장소에서 얼굴 인식 기술을 향상시키는 데 점점 더 많이 사용되고 있습니다.

이러한 인프라가 진정한 사적 환경에서 구축되지 않으면 수많은 시민의 자유와 사생활이 자신도 모르게 침해될 수 있습니다.

3. 개인 데이터는 AI 시스템을 훈련하는 데 사용됩니다.

주요 AI 시스템이 수많은 웹페이지를 샅샅이 뒤져 지능을 축적했다는 우려가 나온다.

추정에 따르면 ChatGPT를 훈련하는 데 300억 개의 단어가 사용되었습니다. - 570GB의 데이터입니다 - 데이터세트에 책과 Wikipedia 항목이 포함되어 있습니다.

알고리즘은 소셜 미디어 페이지와 온라인 댓글에 의존하는 것으로 알려져 있습니다.

이러한 출처 중 일부를 통해 이 정보의 소유자가 개인 정보 보호에 대한 합리적인 기대를 가지고 있었을 것이라고 주장할 수 있습니다.

하지만 여기에 문제가 있습니다 - 우리가 매일 상호작용하는 많은 도구와 앱은 이미 AI의 영향을 많이 받고 있습니다. - 그리고 우리의 행동에 반응합니다.

iPhone의 Face ID는 AI를 사용하여 외모의 미묘한 변화를 추적합니다.

TikTok과 Facebook의 AI 기반 알고리즘은 과거에 본 클립과 게시물을 기반으로 콘텐츠를 추천합니다.

Alexa 및 Siri와 같은 음성 비서도 기계 학습에 크게 의존합니다.

어지러울 정도로 많은 AI 스타트업이 존재하며, 각각은 특정한 목적을 가지고 있습니다. 그러나 일부는 사용자 데이터가 수집, 저장 및 적용되는 방식에 대해 다른 것보다 더 투명합니다.

AI가 의료 분야에 영향을 미치기 때문에 이는 특히 중요합니다. - 의료 영상 및 진단부터 기록 보관 및 의약품까지.

최근 몇 년간 개인 정보 보호 스캔들에 휘말린 인터넷 기업으로부터 교훈을 얻어야 합니다.

여성 건강 앱 플로(Flo)는 고발 당한 2010년대에는 규제 당국이 사용자에 대한 친밀한 세부 정보를 Facebook 및 Google과 같은 기업과 공유했습니다.

여기서 어디로 가니

AI는 앞으로 우리 삶 전체에 지울 수 없는 영향을 미칠 것입니다. LLM은 날이 갈수록 발전하고 있으며 새로운 사용 사례도 계속 등장하고 있습니다.

그러나 업계가 엄청난 속도로 움직이면서 규제 당국이 이를 따라잡기 위해 애쓰게 될 실질적인 위험이 있습니다.

이는 소비자가 자신의 데이터를 보호하고 해당 데이터가 어떻게 사용되는지 모니터링해야 함을 의미합니다.

여기서 분산화는 중요한 역할을 할 수 있으며 대량의 데이터가 주요 플랫폼의 손에 들어가는 것을 방지할 수 있습니다.

DePIN(분산형 물리적 인프라 네트워크)은 일상적인 사용자가 개인 정보를 침해하지 않고 AI의 모든 이점을 경험할 수 있도록 보장할 수 있는 잠재력을 가지고 있습니다.

암호화된 프롬프트는 훨씬 더 개인화된 결과를 제공할 수 있을 뿐만 아니라 개인 정보 보호 LLM을 통해 사용자가 항상 자신의 데이터를 완전히 제어할 수 있도록 보장합니다. - 그리고 그것이 오용되지 않도록 보호합니다.


크리스 워(Chris Were)는 다음의 CEO입니다. 베리다는 개인이 자신의 디지털 신원과 개인 데이터를 제어할 수 있는 권한을 부여하는 분산형 자주권 데이터 네트워크입니다. Chris는 혁신적인 소프트웨어 솔루션 개발에 20년 이상 헌신해 온 호주 기반의 기술 기업가입니다.

 

HodlX의 최신 헤드 라인 확인

우리를 따라 오세요 트위터 페이스북 텔레그램

확인 최신 업계 발표  

오늘날 AI가 직면한 세 가지 데이터 개인 정보 보호 문제 - The Daily Hodl PlatoBlockchain Data Intelligence. 수직 검색. 일체 포함.

Disclaimer : The Daily Hodl에 명시된 의견은 투자 조언이 아닙니다. 투자자는 Bitcoin, cryptocurrency 또는 디지털 자산에 대한 위험이 높은 투자를하기 전에 실사를해야합니다. 귀하의 양도 및 거래는 귀하의 책임하에 행해져 야하며 귀하가 잃을 수있는 모든 손실은 귀하의 책임임을 알려드립니다. Daily Hodl은 cryptocurrencies 또는 디지털 자산의 매매를 권장하지 않으며 The Daily Hodl은 투자 고문도 아닙니다. The Daily Hodl은 제휴 마케팅에 참여합니다.

생성된 이미지: Midjourney

타임 스탬프 :

더보기 매일 Hodl