これは、検閲センターがFacebookで機能する方法です。

これは、検閲センターがFacebookで機能する方法です。

「クロックワークオレンジ」は、その暴力的な画像と多くの人が誤って解釈する可能性があるあいまいなメッセージのため、多くの国で禁止されていることで有名なスタンリーキューブリックの映画でした。その中で、超暴力的な若者は当局によって捕らえられ、彼の性格において自由意志、つまり彼を良い人にする方法を適用することを阻害するためのテストにさらされています。彼らはそれをどのように行いましたか?ショック治療によって:被験者は巨大なスクリーンの前で縛られ、目は永久に開いたままで、何時間も不愉快なシーンを見ざるを得ません。彼が釈放され、暴力的な行動をとる衝動を感じたとき、吐き気が発生します。悪心は、彼が以前自分自身を見つけた状況を条件としています。

これは、検閲センターがFacebookで機能する方法です。

さて、あなたが暴力的で不愉快な画像、憎悪に満ちたコンテンツ、侮辱、斬首のビデオなどを1日8時間、大企業で見ていると想像してください。このセンターでのあなたの仕事は、他の人が見ることができるものと見えないものを決定するために使用されます。 Mark Zuckerbergのソーシャルネットワークで禁止されているコンテンツに関連する検閲を管理するためにFacebookが世界で手配している20のセンターの1つで働いています。 Eldiario.esは、ワルシャワやリスボンなどの都市のこれらのセンターからの情報源に加えて、エージェントが検閲を適用しなければならない条件を明らかにする文書にアクセスできました。

これらの文書によると、フェイスブックの道徳と善行の代理人は悲惨な状況で働かなければなりません。何百人もの人々がグロテスクなコンテンツが発生している画面で凝視を絶えず修正し、拡大せずに排除する必要のある窓のないオフィス。彼らは、「時計じかけのオレンジ」のアレックスのように、そのような行為の結果が何であるかを十分に理解されずに1日8時間ひどい画像にさらされた被験者です。私たちがこれまでに説明しているアルゴリズムは、あなたや私のような人々に他なりません。

Facebook 02

彼らの肉体的および精神的な労働条件は極端です

そのようなセンターでは合計15,000人が働いています。彼らの多くは、100%公平であることは不可能であり、彼らが機能する状況では、またタスクの性質上、失敗が継続的に発生する可能性があると主張しています。 Facebookの検閲担当者は、毎月700ユーロの料金を請求し、国際コンサルタントを通じて下請け契約を結んでいます。Facebook働いていることを誰かに伝えることは禁止されており、常にクライアントとして言及する必要があります。 Eldiario.esは、このタイプのセンターの3人の従業員の声明を入手しており、匿名性を維持する必要があります。

労働条件は極端です。彼らは、8時間のシフトで30分休むことができます。視覚的な休憩を取り、足を伸ばし、トイレに行き、食事をとるには、毎時間それを管理する必要があります。部屋には、不適切な行動に注意して罰する校閲者が常にいます。従業員が画像を選択しているときに、水を飲むか、携帯電話を取り出して何かを相談するために立ち止まることは、制裁の根拠です。さらに、従業員自身は、ポイントプログラムを通じて、罰則のある行動をしている同僚を見つけた場合、お互いを非難するよう奨励されています。

これは、検閲センターがFacebookで機能する方法です1

あなたの仕事は何ですか?

作品は次のように動作します。従業員は彼の前に、ユーザーによるより多くの苦情が蓄積するすべてのコンテンツが発生している画面を持っています。次に、ワーカーには2つの「削除」オプションがあり、Facebookのルールに違反していないと見なすと、コンテンツを削除します。0は「無視」します。各人は1日あたり最大600のケースを分析でき、2つの決定ボタンの1つを押すために、それぞれのケースで合計30秒かかります。もちろん、通常、これらのセンターについて現在知られているすべてのものを考慮に入れて、不正は犯されます。

新聞はインタビューされた従業員が介入しなければならなかった実際のケースの例を与えます。たとえば、この画像は乳がんを警告するイラストでした。

乳首

アルゴリズムの1つである自動化アルゴリズムは、すでに機能し始めており、女性の乳首が見える画像のアルゴリズムです。ただし、画像が参考になる場合など、例外があります。上の図を見ると、がんに関する一般的な情報であり、エロティックな性格のイメージではないため、従業員がイメージのロックを解除する必要があることは明らかです。

子供いじめミーム

この他では、これらのモデレーターが行う作業が非常に複雑になる可能性があることがわかります。子どものいじめ行為を表すのはミームですか?従業員は、削除するかどうかを30秒以内に決定する必要があります。これは実際のインタビューのスナップショットであり、肥満は障害とは見なされません。Facebookでは、誰かが障害者のグループに属していることを除いて、誰かを怒らせる可能性があるものは何も削除されていません。この場合、モデレーターは「無視」ボタンを選択します。

Facebookでの検閲の矛盾

多少は明確かもしれないが、Facebookルールのあいまいさが現れる他の多くの例に含まれている2つの例。たとえば、ヒトラーを参照するコンテンツは自動的に削除されます。ただし、フランコの謝罪が含まれるコンテンツは許可されます。レビューアの1人は、ファシズムがFacebookで許可されているという主張を調べました。何も起こらないムッソリーニの写真で壁を埋めることができます。しかし、ヒトラーに注意してください。または女性の乳首。

これは、Facebook 2で検閲センターが機能する方法です。

Facebookの検閲官がしなければならない最も狂った決定の中で、彼らがテロリストであるかどうかを決定するためにアラブ人のひげの大きさを考慮することです。さらに、インタビュー対象者は、特定のグループに利益をもたらす必要があるという明確な二重基準を非難しています。 「特定の信念を侮辱することは許可され、他の信念は完全に禁止されます。」たとえば、シオニズム。イスラエルがパレスチナで行った虐殺によるイスラエル製品のボイコットの要請は検閲されます。さらに、Facebookでコンテンツが削除される可能性は、コンテンツを削除することに関心のあるグループの力と組織の能力に大きく関係します。

将来的には、これらのFacebookの従業員が心理的な結果もたらすことや、コンテンツのモデレーションに彼らが与える特異なイデオロギー的使用が見られることはまだありません。