Discord는 어린이 안전 문제 PlatoBlockchain 데이터 인텔리전스로 인해 500,000개 이상의 계정을 비활성화했습니다. 수직 검색. 일체 포함.

Discord, 아동 안전 문제로 500,000개 이상의 계정 비활성화

콜린 티에리


콜린 티에리

에 게시 : 2022 년 11 월 3 일

소셜 플랫폼 Discord는 지난주에 767,363년 2022월에서 XNUMX월 사이에 정책 위반으로 인해 XNUMX개의 계정을 비활성화했다고 밝혔습니다.

회사의 분기별 안전 보고서에 따르면 전체 장애 계정의 69%가 아동 안전 문제를 제기했습니다.

Discord는 아동 안전을 위해 532,498개의 계정을 비활성화하고 15,163개의 서버를 제거했으며 대부분이 학대적인 이미지나 동영상을 업로드하는 것으로 신고되었습니다.

계정과 서버도 NCMEC(National Center for Missing & Exploited Children)에 즉시 보고되었습니다.

회사는 "Discord는 커뮤니티 가이드라인의 향후 위반을 방지하기 위해 경고를 발행합니다."라고 설명했습니다. 신고 지난주. "폭력적 극단주의 또는 아동 성학대 자료(CSAM)와 같은 일부 심각한 문제에 대해 아동 안전의 하위 범주인 - 우리는 경고를 발행하지 않고 즉시 계정을 비활성화하고 콘텐츠를 제거합니다."

Discord는 "2022년 21,529분기에 NCMEC에 보고한 계정은 101개로 2022년 21,425분기에 비해 104% 증가한 수치입니다."라고 덧붙였습니다. “이 보고서 중 XNUMX건은 미디어(이미지 또는 비디오)였으며 그 중 다수는 알려진 CSAM의 공유 산업 해시 데이터베이스를 사용하는 도구인 PhotoDNA를 통해 신고되었습니다. NCMEC에도 XNUMX건의 고위험 그루밍 또는 위험 보고서가 전달되었습니다.”

회사는 또한 스팸 또는 스팸 관련 범죄로 인해 27.5만 개 이상의 계정을 비활성화했다고 언급했습니다. 이는 이전에 분석한 분기보다 6.5% 증가한 수치입니다.

계정 삭제로 이어진 기타 정책 위반은 다음과 같습니다.

  • 타인의 동의 없이 착취 및 원치 않는 콘텐츠를 전송하거나 성적으로 노골적인 콘텐츠를 공유하는 행위(계정 147,249개 및 서버 2,326개 제거).
  • 심각한 부정적인 댓글과 암시적이거나 노골적인 위협을 보내는 것을 포함한 괴롭힘 및 따돌림(13,779개의 계정과 598개의 서버가 비활성화됨).
  • 개인 또는 조직의 악의적인 사칭(148개의 계정과 12개의 서버가 비활성화됨).
  • 불법 상품 또는 서비스 판매 또는 판매 촉진을 포함한 불법적이거나 위험한 활동(계정 27,494개 및 서버 4,639개 제거).
  • 자해 우려 또는 자살 및 자해를 조장하는 계정(계정 2,495개 및 서버 620개 제거됨).

타임 스탬프 :

더보기 안전 탐정