業界団体が安全性指針、メタバースの治安は守れるか?
フェイスブックが本格参入するなど盛り上がりを見せるメタバースで、ユーザーの安全確保が課題になっている。関連テック企業のグループが作成したガイドラインは治安維持に役立つだろうか。 by Tanya Basu2022.01.25
インターネットは、人間が持つ最も醜悪な側面を示す底なし沼のようだ。これまでのところ、人々が働き、遊び、生活をすると思い描かれている「メタバース」というVR(実質現実)のデジタル世界が、現状のインターネットよりはるかに優れた世界になると示す兆候はほとんどない。12月の記事にある通り、メタ(旧フェイスブック)のVRソーシャルメディアのプラットフォーム「ホライズン・ワールド(Horizon Worlds)」では、ベータテスターの1人がオンラインで痴漢行為を受けたと苦情を訴えているほどだ。
この問題への解決策を提唱しているのが、ティファニー・シンギュ・ワンだ。2020年8月、ワンは理事長兼共同設立者として非営利団体「オアシス・コンソーシアム(Oasis Consortium)」を立ち上げた。フェイスブックが社名をメタに変更し、これまで主力としてきたソーシャルメディア・プラットフォームから、自社開発のメタバースに事業の主力分野を転換する計画を発表する1年以上前のことだ。オアシスにはゲーム開発企業やネット企業が加盟しており、「将来の世代が、ネット上での憎悪や有害コンテンツに触れることなく、交流し、創造し、参加する、信頼できる倫理的なインターネット」を構想している。
どのように実現するのか? ワン理事長は、オアシスがテック企業の自主規制を支援することで、より安全でより優れたメタバースを実現できると考えている。
1月初旬、オアシスはユーザー安全性基準という一連のガイドラインを公開した。このガイドラインでは、信頼性・安全性を担当する責任者を雇用すること、コンテンツ・モデレーションを導入すること、有害なコンテンツや行為の対策に関する最新の研究成果を取り入れることなどが規定されている。 オアシスの加盟企業は、こうした目標の達成に向けた取り組みを約束することになる。
「Webとメタバースに新しい選択肢を提供したいと考えています」とワン理事長は言う。彼女はこれまで15年にわたって、人工知能(AI)とコンテンツ・モデレーションに携わってきた。「メタバースが今後続いていくためには、安全性を確保する仕組みを組み込む必要があります」。
ワン理事長は正しい。メタバースというテクノロジーが成功するかどうかは、ユーザーにとって絶対に有害にならないようにする仕組みが実現するかどうかにかかっている。しかし、シリコンバレー企業がメタバースにおいて自主規制ができると本当に信じて良いのだろうか。
より安全なメタバースの青写真
これまでにオアシスに加盟した企業は、ゲーミング・プラットフォームのロブロックス(Roblox)、出会い系企業のグラインダー(Grindr)、ゲーム大手企業のライアット・ゲームズ(Riot Games)などだ。加盟企業のユーザー数は合計で数億人に達する。そのユーザーの多くは、すでに積極的にバーチャル空間を利用している。
しかしながら注目すべきは、まだメタとは協議をしていないことだろう。メタこそ、今後のメタバースにおける最大のプレーヤーになる企業であるのにかかわらずだ。だが、これもワン理事長の戦略だ。巨大テック企業には「私たちがこの運動の最前線で、有意義な変化を実現していることに気づいてくれたタイミング」でアプローチしようと考えている(筆者はメタに対して、メタバースにおける安全性の計画に関して問い合わせたところ、2つの文書へのリンクが回答として送られてきた。1つは、グループや個人との相互関係を詳説している「責任あるメタバースの構築」というプレスリリース。もう1つは、VR空間の安全性について書かれているブログ記事だ。どちらも、メタのアンドリュー・ボスワース最高技術責任者(CTO)が書いている)。
ワン理事長は、いくつかの方法で透明性を確保したいと考えている。1つは、企業が信頼と安全性の維持の取り組みをどのレベルで実施しているかを点数化するシステムを作り出し、一般の人々が一目で判断できるようにすることだ。米国では多くのレストランが、衛生や清潔に関する基準を満たしていることを示す、市当局発行のグレード認定書を掲げており、これと似たようなものだ。もう1つは、加盟企業に対して信頼性・安全性を担当する責任者の雇用を義務づけることだ。大企業では、こうした責任者を設けることがますます増えているが、信頼性・安全性を担当する責任者が従うべき基準に関して、各社それぞれの考え方が異なるとワン理事長は話す。
ただし、オアシスの計画のかなりの部分は最も好意的な言葉を使っても、理想主義的と言わざるを得ないものにとどまっている。例えば、オアシスは機械学習を使って、嫌がらせやヘイトスピーチを検知することを提唱している。MITテクノロジーレビューのカーレン・ハオ(AI担当記者)が昨年書いた記事によると、ヘイトスピーチを検知するAIモデルを作っても、ヘイトスピーチの見落としを続発して拡散を許してしまうか、ヘイトスピーチではないものを誤って判断してしまうのが現状なのだ。それでもワン理事長は、モデレーションの手段としてAIを促進することを擁護している。「質の高いデータを取得すれば、AIの性能は向上します。プラットフォームは、それぞれ異なるモデレーション慣行を共有していますが、精度の向上、迅速な対応、そして安全性といったすべての対策を設計に組み込むことで、有害なコンテンツや行為を防止できるのです」。
オアシスのユーザー安全性基準は7ページの文書で、今後の目標概要が示されている。その多くの部分は、ミッション・ステートメントのように感じられる。ワン理事長によると、(安全性基準文書作成のための)最初の数カ月間は、目標策定のためのアドバイザリー・ボードの組織化に力を入れてきたという。
ユーザー安全性基準は、オアシスのコンテンツ・モデレーション戦略など、その他にもいくつかの計画を示しているものの、具体性に欠けている。ワン理事長は、加盟企業にはコンテンツ・モデレーション担当者として、多様な背景を持つ人材を雇用してほしいと話す。有色人種に対する嫌がらせや、性自認が男性ではない人々に対する嫌がらせを、見落とすことなく排除していくためだ。しかし、計画ではこの目標の達成するために具体的なステップは示されていない。
さらにオアシスは加盟企業に対して、有害行為をしているユーザーに関するデータを共有するよう求めている。何度も有害行為を繰り返す人物を特定するのに重要だからだ。加盟テック企業は、非営利団体、政府機関、法執行機関と提携し、安全性ポリシーを策定する予定だ、とワン理事長は話す。また、ワン理事長は、嫌がらせおよび他のユーザーにとって有害な行為を警察に通報する役割を担うチームをオアシス内に設置する計画だ。しかし、このチームが出来上がったとしても、法執行機関と具体的にどのように連携し、どのような点において現状より良いものになっていくのかは、依然として明確ではない。
プライバシーと安全性の両立
オアシスのユーザー安全性基準について複数の専門家に話を聞いてみると、基準は具体的な詳細が乏しいものの、少なくとも第一歩としては評価できるという返答が返ってきた。「オアシスが、各企業のシステムやその限界について知識のある人々を巻き込んで、自主規制を検討しているのは良いことです」とテクノロジーおよび人権を専門とするブリタン・ヘラー弁護士は言う。
テック企業がこのように歩調を合わせて取り組むのは、今回が初めてではない。2017年には、テロ対策に関するグローバル・インターネット・フォーラム(GIFCT)と情報を自由に共有することに、一部のテック企業が同意した。現在でも、GIFCTは独立した団体として存続しており、加盟する企業は自主規制をしている。
メルボルン大学大学院でコンピューティングおよび情報システムを研究しているルーシー・スパロー博士は、各企業がガイドラインを作成したり、第三者がガイドラインを作成するのを待つのではなく、企業が実行可能な案をオアシス側が提示している点が評価に値すると話す。
さらにスパロー博士は、オアシスが推進しているように、初期段階から設計に倫理を組み込むという考え方はすばらしく、自身の研究課題であるマルチプレーヤー・ゲーム・システムにおいてもこの考え方は目に見えて有益な結果に繋がることが示されていると付け加える。「倫理は、副次的な課題と追いやられてしまう傾向があります。しかし、オアシスは最初から倫理について考えていくように促しています」(スパロー博士)。
しかしヘラー弁護士によると、倫理を設計に組み込むだけでは十分ではないかもしれないという。テック企業は利用規約を一新すべきだ、と彼女は提案している。テック企業の利用規約は、法律の専門知識を持たない消費者を利用している節があるとして、厳しく批判されてきた。
スパロー博士も同感で、多くのテック企業が消費者の利益を最優先するような動きに出るとはなかなか信じられないという。「突き詰めれば、この問題は2つのことを問いかけています。1つ目は、営利企業による安全性管理能力をどれほど信じられるのかです。2つ目は、人々は自分たちのバーチャル空間における私生活に関して、どの程度までテック企業の管理を許容するのかです」。
なかなか厄介な問題だ。特に、安全性とプライバシーはともにユーザーの権利であり、両立は困難となる可能性がある。
例えば、オアシスのユーザー安全性基準のガイドラインでは、ユーザーが嫌がらせを受けた場合、法執行機関に被害届を出すよう定められている。現状では、被害届を出そうとしても、困難を伴うことがしばしばある。プライバシー上の理由から、プラットフォームはユーザーの行為を記録していない場合が多いからだ。
この変更が実現すれば、繰り返し有害行為をするユーザーへの懲戒能力が大きく向上するだろう。現在、各プラットフォームは、どのユーザーが問題行為をしているかに関するデータを共有していない。そのため、複数のプラットフォームで有害な行為や嫌がらせをしても見過ごされている状態なのだ。しかしヘラー弁護士は、こうしたデータ共有体制は理屈の上では優れた構想ではあるものの、実現は難しいと話す。なぜなら、企業は利用規約に従ってユーザー情報を保護しなければならないからだ。
「有害行為をしているユーザーのデータを、匿名化した状態で共有して効果的に活用するなど、本当に可能なのでしょうか」とヘラー弁護士は問いかける。「さらに、データを共有するかしないかの判断の基準は、どうするのでしょうか。どうすれば、情報共有プロセスにおいて透明性を確保し、ユーザーの排除に対する異議申し立ての仕組みを作れるでしょうか。アカウントの排除判断の権限は、誰が持つのでしょうか」。
「ユーザーが複数のプラットフォームをまたいで利用規約に違反する嫌がらせまたは類似の有害行為をするのは、珍しい話ではありません。しかし、企業が別の企業に対してこうした行為をするユーザーの情報を共有するのは、前例がありません」とヘラー弁護士は付け加える。
人間によるより良いコンテンツ・モデレーションが実現すれば、嫌がらせを根元から断ち切れるかもしれない。しかし、ヘラー弁護士は、特にテキストベースのプラットフォームとよりバーチャルなプラットフォームの間で、オアシスがどのようにコンテンツ・モデレーションの基準を標準化しようと計画しているのか、よく分からないとしている。さらに、メタバースにおけるモデレーションには、特有の難題がいくつも潜んでいる。
「ソーシャルメディアのフィードからヘイトスピーチを検知するAIベースのコンテンツ・モデレーション・システムは、主にテキストを対象としています。VRにおけるコンテンツモデレーションでは、主にユーザーの行動を追跡、監視しなければなりません。そして、現在のXR(実質・拡張現実)における検知報告システムは、お粗末すぎて多くの場合効果がありません。現状では、AIによる自動化は不可能なのです」。
すると、嫌がらせを受けたユーザーには、自身で通報するという負担がかかる。ホライゾン・ワールズでの痴漢行為も、通報したのは被害者自身だった。音声や映像は記録されていないことが多く、問題行為を立証するのは困難だ。さらに、音声を録音しているプラットフォームでも、ほとんどは断片しか保存していない。文脈を理解するのは不可能ではないが、完全に理解するのは難しいとヘラーは話す。
ワン理事長は、ユーザー安全性基準はオアシスが選定したアドバイザリー・ボードによって作成されたことを強調している。しかし、そのメンバーは全員、加盟企業に所属している。ヘラー弁護士とスパロー博士はこの事実をかなり問題視している。現実として、インターネット登場以来、テック企業が消費者の健康と安全を適切に保護してきた実績は一切ない。今回は適切に保護してくれると期待できる材料は、どこにあるというのだろうか。
スパロー博士も、そのような期待はできないと考えている。「重要なのは、正義とは何かをユーザーに伝えたり、どのような行動が期待されるかを示したりする仕組みを用意することです。そして、一線を超えた行為に関しては断固たる対応ができるようにする必要があります」とスパロー博士は言う。そのためには、外部の利害関係者や一般市民を巻き込んだシステム構築を目指すか、ユーザーが証言したり陪審員のような役割を演じたりできる一種のユーザー参加型のガバナンス体制の構築を目指す必要があるのかもしれない。
しかし、確実なことが1つある。それは、人々の安全性を確保するとテック企業のグループが約束しているだけでは、メタバースでの安全性は程遠いということだ。
- 人気の記事ランキング
-
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- The world’s next big environmental problem could come from space 次の環境問題は宇宙から? 科学者たちが追う 人工衛星の「遺灰」の行方
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- ターニャ・バス [Tanya Basu]米国版 「人間とテクノロジー」担当上級記者
- 人間とテクノロジーの交差点を取材する上級記者。前職は、デイリー・ビースト(The Daily Beast)とインバース(Inverse)の科学編集者。健康と心理学に関する報道に従事していた。