Discord、子供の安全上の懸念により500,000万以上のアカウントを無効化 PlatoBlockchain Data Intelligence。垂直検索。あい。

Discordが子供の安全上の懸念により500,000以上のアカウントを無効にしました

コリン・ティエリー


コリン・ティエリー

発行日: 2022 年 11 月 3 日

ソーシャル プラットフォームの Discord は先週、767,363 年 2022 月から XNUMX 月までの間に XNUMX 件のアカウントをポリシー違反のために無効にしたと発表しました。

同社の四半期ごとの安全性レポートによると、無効になったすべてのアカウントの 69% が子供の安全に関する懸念を引き起こしました。

Discord は、子供の安全上の理由から 532,498 のアカウントを無効にし、15,163 のサーバーを削除しました。そのほとんどは、虐待的な画像や動画をアップロードしたとしてフラグが立てられました。

アカウントとサーバーは、行方不明および搾取された子供のための国立センター (NCMEC) にもすぐに報告されました。

「Discordは、コミュニティガイドラインの将来の違反を防ぐことを目的として警告を発します」と同社は説明しています レポート 先週。 「暴力的過激主義や児童の性的虐待素材 (CSAM) (児童の安全のサブカテゴリ) などの被害の大きい問題については、警告を発するのではなく、直ちにアカウントを無効にしてコンテンツを削除します。」

「2022 年の第 21,529 四半期に、101 のアカウントを NCMEC に報告しました。これは、2022 年の第 21,425 四半期と比較して、作成された報告が 104% 増加したことです」と Discord は付け加えました。 「これらのレポートのうち XNUMX 件はメディア (画像または動画) であり、そのうちの多くは PhotoDNA (既知の CSAM の共有業界ハッシュ データベースを使用するツール) を通じてフラグが立てられました。 XNUMX件の危険度の高い身だしなみや危険に関する報告もNCMECに提出されました。」

同社はまた、スパムまたはスパム関連の犯罪のために 27.5 万を超えるアカウントを無効にしたことにも言及しました。 これは、以前に分析した四半期から 6.5% 増加しました。

アカウントの削除につながったその他のポリシー違反には、次のものがあります。

  • 搾取的で未承諾のコンテンツを送信したり、他人の性的に露骨なコンテンツを同意なしに共有したりする (147,249 のアカウントと 2,326 のサーバーが削除されました)。
  • 嫌がらせやいじめ。深刻な否定的なコメントや暗示的またはあからさまな脅迫の送信を含みます (13,779 のアカウントと 598 のサーバーが無効になりました)。
  • 個人または組織の悪意のあるなりすまし (148 個のアカウントと 12 個のサーバーが無効化されました)。
  • 違法な商品またはサービスの販売または販売の促進を含む、違法または危険な活動 (27,494 のアカウントと 4,639 のサーバーが削除されました)。
  • 自殺や自傷行為を助長する自傷行為やアカウント (2,495 件のアカウントと 620 台のサーバーが削除されました)。

タイムスタンプ:

より多くの 安全探偵