YouTubeコメントでの検閲の仕組み

YouTubeコメントでの検閲の仕組み

YouTubeは、文化圏とマーケティングツールの中間で動画を共有するための巨大なプラットフォームです。ネットワーク上の全ユーザーの実質的に半分、つまり、世界の人口のほぼ30%しか集まらないほど巨大なエンティティ。

当初、公開または投稿できるものに基準を課すことに関しては、そのポリシーはより緩やかでしたが、実際にはしばらくの間、YouTubeは特定のデリケートなトピックを避けるために独自のルールを厳しくしています。さらに先に進むことなく、数週間前に「機密イベント」に関する収益化ポリシーを更新し、現在の健康危機への言及をブラックリストに含めました。

しかし、YouTubeでは不適切なコメントをどのように定義できますか?誰または何が、どの単語やフレーズが潜在的に「危険」であるかを定義しますか?最初のステップは、YouTubeのコメントで検閲がどのように機能するを理解するためにプラットフォームが使用するメカニズムを理解することです。

検閲

YouTubeで検閲はどのように機能しますか?

YouTubeには20億人以上のアクティブユーザーがいるため、これらすべてのプロファイルのアクティビティの制御を自動化する方法が必要です。このメカニズムは、AIによって制御される高度に洗練されたコンピューター化されたシステムの形を取り、サイトにいるすべての人のコンテンツとアクティビティの追跡、プロファイリング、分類を行います。

この印象的なシステムは、機械学習を使用して単語だけでなく、不適切である可能性のある表現も検出します。

厳密な意味でのアルゴリズムについて話しているだけではなく、「禁止された」単語のリストに基づいて特定のコメントをブロックするだけです。つまり、これはさらに進んでいきます。むしろ、以前はチャンネルの所有者または別のユーザーによってモデレートされたコメントの数百万のサンプルをとる、機械学習に基づく計算モデルについて話しています。

誤解しないでください。もちろん、禁止された単語のリストがあり、アルゴリズムによって制御されますが、YouTubeがコミュニティに提供して、特定の不適切な行動を報告するために利用できるすべてのツールとリソースも重要です。ユーザーからのこのすべての入力は、プラットフォームのデータ分析システムがフィードするものであり、コミュニティ内のアクティビティをより効率的かつ正確に制御します。

つまり、兄貴は、キーワード検索、機械学習、YouTubeコミュニティからの責任ある行動を自動化するアルゴリズムの組み合わせです。検閲の対象となる可能性のある用語や表現はすべて、プラットフォームの「セキュリティ規制」セクションに含まれています。

このルールセット全体は、特に有害、危険、ポルノ、憎悪、著作権などのコンテンツを回避しようとします

検閲

数の検閲

上記のツールがどれほど効果的であるかを知るには、2019年の最後の四半期(最後の記録)でのみ削除されたコメントの数を確認する必要があります。削除されたコメントは合計5億4,100万件です。

また、YouTubeのシステムによって削除されたコメント、およびYouTuber 自身(ユーザーではない)によって直接削除またはブロックされたコメントの割合を確認することもできます。別の興味深いデータは、特定のトピックに基づいて削除されたコメントの割合です。