透明性レポート
導入
デジタルサービス法第15条の遵守に基づき、当社運営の透明性と説明責任にコミットしています。このレポートは、2024年1月1日から2025年6月30日までの期間におけるコンテンツモデレーションの実践、アップロード、報告、削除に関する洞察を提供します。このレポートでは個人データは一切開示されません。
モデレーション概要
当社では、自動化ツール、AI駆動型検知、人間による審査を組み合わせ、許容コンテンツポリシーを施行しています。報告期間中、数百万のアップロードを処理し、積極的なモデレーションを通じてさまざまな違反に対処しました。
- 総コンテンツアップロード数: 1,500万
- ユーザー提出報告数: 25万
- 自動検知数: 120万
- コンテンツ削除数: 80万(うち児童性的虐待素材(CSAM)5万件、非合意コンテンツ10万件、著作権侵害20万件を含む)
アピールと紛争解決
ユーザーはコンテンツ削除やアカウント措置に対するアピールをお問い合わせフォームから行うことができます。デジタルサービス法に基づき、裁判外紛争解決オプションを提供しています。この期間中、1万件のアピールを受け付け、成功率25%、平均応答時間7日を記録しました。
パートナーシップ
当社では、児童保護擁護サイト協会(ASACP)および行方不明・搾取児童センター(NCMEC)などの信頼できる組織と協力し、モデレーション努力を強化し、違法コンテンツを迅速に報告しています。
ユーザー統計とトレンド
デジタルサービス法第24条第2項に基づき、EUにおける月間平均アクティブユーザー数は約500万人でした。モデレーションのトレンドでは、前期間比で削除率が15%増加し、検知能力の向上を反映しています。
連絡先情報
このレポートに関するお問い合わせは、[email protected]までご連絡ください。虐待や違反の報告は[email protected]へ。一般的なサポートはお問い合わせフォームからご利用いただけます。
遵守に関する注記
当社では、利用規約、デジタルサービス法、許容コンテンツポリシーを厳格に遵守し、全モデレーションが法的・倫理的基準に沿うことを保証しています。
最終更新日: 2025年7月10日