
一体、人々はオンラインでどのようにコミュニケーションを取るべきなのでしょうか?Facebookにとって、これは哲学的な問題であると同時に、運用上の問題でもあります。
Facebookは先週、ユーザー数が20億人に達したと発表した。これは、世界人口75億人の約27%が同ソーシャルメディアネットワークを利用していることを意味する。Facebookは自社ブログ「Hard Questions」への投稿で、ヘイトスピーチへの対応における社内の仕組みを垣間見せた。これは、ProPublicaがヘイトスピーチ規制の基準適用における偽善的な手法について報じた前日のことだった。これらを総合すると、Facebookによる言論規制の試みは不可能に思えてくる。
言語は難しいものです。例えば、人間の言語で訓練されたAIは、単語同士がどのように使われているかを見るだけで、ユーザーと同じバイアスを再現します。同じ文の中の同じ単語でも、話者のアイデンティティ、話しかける相手のアイデンティティ、さらには会話の仕方によって異なる意味を持つことがあります。しかも、これは、ある単語に複数の定義があることを考慮に入れていないのです。
「『旗を燃やせ、タバコを燃やすな』という発言は一体何を意味するのか?」と、Facebookの欧州・中東・アフリカ地域公共政策担当副社長リチャード・アランは書いている。「これは表面上は明らかに挑発的な発言だが、ヘイトスピーチとみなすべきだろうか? 例えば、これは同性愛者への攻撃なのか、それとも侮辱的な表現を『取り戻そう』とする試みなのか? 国旗を燃やすことで政治的抗議を煽動しているのだろうか? あるいは、発言者や聴衆がイギリス人であれば、タバコ(イギリスではタバコは「fag」という一般的な言葉で表す)を吸わないよう人々に促す試みなのだろうか? ヘイトスピーチ違反かどうかを判断するには、より詳細な文脈が必要だ。」
コメントを求めたFacebookの広報担当者は、この「Hard Questions」投稿は新たなポリシーを示唆するものではないと認めた。これは単に、Facebookが言論をどのように規制しているかというロジックを透明化するためのものだという。
「人々は特定の内容が削除されることを望み、発言する権利を望んでいます」とイェール大学情報社会プロジェクトの常駐研究員、ケイト・クロニック氏は言う。「ヘイトスピーチや人種差別、性差別、あるいは非常に不快な内容を削除する完璧なフィルターの存在を望んでいるのです。」
Facebook が公共の場での言論をどのように規制しているかを分析している理由の 1 つは、ガーディアン紙に漏洩した大量の内部文書のおかげで、Facebook がどのような言論を削除し、どの言論を残すかについての社内ガイドラインを他社が報じていることである。
「ある文書によると、移民は『汚い』と表現することはできるが、『汚物』と呼ぶことはできない」とプロパブリカは報じている。「名詞で比較する場合、移民を汚物や病気に例えることはできない」と文書は説明している。
クロニック氏はFacebookがユーザーをどのように管理しているかを研究している。「Hard Questions」の記事で議論されているようなモデレーション自体は目新しいものではないが、透明性は新しい。クロニック氏は「こうしたことが行われており、あなたの発言がモデレートされ、あなたのフィードが舞台裏でモデレートされていることは、もはや秘密ではない」と述べている。
クロニック氏の目には、ソーセージ工場で何が行われているかをもっと公開し始めることで、フェイスブックは具体的にどのように言論を規制するかという批判を先取りしようとしているように映る。
しかし、Facebookが事業を展開する国の法律で義務付けられている範囲を超えて、Facebookが行うすべての発言を規制しなければならないという規定はありません。「難しい質問」の記事にあるいくつかの例は、文脈によって大きく異なります。以前の中傷的な発言を再び取り上げているのか、それとも友人同士の冗談なのか、あるいは保護対象グループのメンバーに対する見知らぬ人からの攻撃なのか。しかし、戦争によって、ある言葉が日常的に使われているものからヘイトスピーチとして報告されるものへと突然変わってしまったらどうなるのでしょうか。
「ハード・クエスチョンズ」の一例として、Facebookがロシア人を指すウクライナ語の俗語「moskal」と、ウクライナ人を指すロシア語の俗語「khokhol」をどのように扱っているかが挙げられます。2014年にロシアとウクライナの間で紛争が勃発した際、両国の人々が、相手側が使用した用語をヘイトスピーチとして通報し始めました。これを受けて、アランは次のように述べています。「社内で調査を行い、彼らの主張は正しかったと結論付けました。そこで、両方の用語の削除を開始しました。当初は、制限的すぎると思われたため、両国から不評でしたが、紛争という文脈において、私たちにとって重要な決定だと感じました。」
ウェブサイトの報告機能の一般的な使い方の一つは、単に意見の合わない相手を報告し、サイトがイデオロギー上の敵を検閲する能力を行使することです。戦争の最中に日常語が中傷的な言葉に変わるという事態を受け、Facebookは問題のある言葉を含む投稿を削除することで、自ら緊張を緩和しようと試みたようです。
「この例は非常に興味深いと思いました。なぜなら、これらの言葉を検閲するという決定は双方にとって不評だったと彼が明確に述べているからです」と、EFFの国際表現の自由担当ディレクター、ジリアン・ヨークは述べています。「これはまさに価値判断です。『この言葉のせいで人々が自殺しているから、私たちは責任から身を守っている』と言っているわけではありません。これはFacebookが実際に行っていることで、もう少し理解しやすいことです。これはFacebookが『人々はこれを望んでいませんでしたが、私たちはとにかくそれが彼らにとって正しいと判断しました』と言っているようなものです。」
Facebook は最終的に何を削除し、何を残すかについてのポリシーを定めますが、モデレーションの作業は人間によって行われ、Facebook のビデオ モデレーションと同様に、この作業は当面の間、人間によって行われ続けることになります。
「みんな、これを自動化するのは簡単だと思っているようですが、ブログ記事のせいで、今、自動化がこんなにも難しいのは、自動化からどれほど遠いかが露呈していると思います」とクロニック氏は言います。「人間が判断するのは難しいですし、実現までには何年もかかるでしょう。リチャード・アレン氏がブログ記事で取り上げたような例こそ、まさにこのプロセスの自動化がこれほど遠い理由なのです。」
繰り返しになりますが、Facebookは世界人口の4分の1以上の言論のルールと基準を決定しています。歴史上、これに近づいたり、それを上回ったりした政府はほとんどありません(古代ペルシャはまれな例外です)。この任務の規模の大きさを考えると、Facebookがどのように言論を規制するかだけでなく、なぜそうするのかについても検討する価値があります。
「20億人のコンテンツを管理するのは、規模的に不可能です」とヨーク氏は言う。「では、なぜ法律を超えた制限をかけるのでしょうか? なぜFacebookは世界の規制機関になろうとしているのでしょうか?」