透明性レポート

導入

デジタルサービス法第15条の遵守に基づき、当社運営の透明性と説明責任にコミットしています。このレポートは、2024年1月1日から2025年6月30日までの期間におけるコンテンツモデレーションの実践、アップロード、報告、削除に関する洞察を提供します。このレポートでは個人データは一切開示されません。

モデレーション概要

当社では、自動化ツール、AI駆動型検知、人間による審査を組み合わせ、許容コンテンツポリシーを施行しています。報告期間中、数百万のアップロードを処理し、積極的なモデレーションを通じてさまざまな違反に対処しました。

  • 総コンテンツアップロード数: 1,500万
  • ユーザー提出報告数: 25万
  • 自動検知数: 120万
  • コンテンツ削除数: 80万(うち児童性的虐待素材(CSAM)5万件、非合意コンテンツ10万件、著作権侵害20万件を含む)

アピールと紛争解決

ユーザーはコンテンツ削除やアカウント措置に対するアピールをお問い合わせフォームから行うことができます。デジタルサービス法に基づき、裁判外紛争解決オプションを提供しています。この期間中、1万件のアピールを受け付け、成功率25%、平均応答時間7日を記録しました。

パートナーシップ

当社では、児童保護擁護サイト協会(ASACP)および行方不明・搾取児童センター(NCMEC)などの信頼できる組織と協力し、モデレーション努力を強化し、違法コンテンツを迅速に報告しています。

ユーザー統計とトレンド

デジタルサービス法第24条第2項に基づき、EUにおける月間平均アクティブユーザー数は約500万人でした。モデレーションのトレンドでは、前期間比で削除率が15%増加し、検知能力の向上を反映しています。

連絡先情報

このレポートに関するお問い合わせは、[email protected]までご連絡ください。虐待や違反の報告は[email protected]へ。一般的なサポートはお問い合わせフォームからご利用いただけます。

遵守に関する注記

当社では、利用規約デジタルサービス法許容コンテンツポリシーを厳格に遵守し、全モデレーションが法的・倫理的基準に沿うことを保証しています。

最終更新日: 2025年7月10日