Eマスクがツイッター買収でぶち上げたオープンソース化が危うい理由
イーロン・マスクによるツイッターの買収が決まった。マスクはツイッターのアルゴリズムのオープンソース化を進めるとしているが、新たなセキュリティリスクをもたらす可能性がある一方で、透明性を高める効果はほとんどない。 by Chris Stokel-Walker2022.04.28
ツイッターがイーロン・マスク(テスラ/スペースXのCEO)の買収提案を受け入れたと発表したわずか数時間後、マスクはツイッターに関する自身の計画を明らかにした。マスクはプレスリリースで、ユーザーがフィードに表示する内容を決定するアルゴリズムを公開することなど、自身が意図する抜本的な変更の概要を説明した。
ツイッターのアルゴリズムをオープンソース化するというマスクの野望は、ツイッター・プラットフォーム上の政治的検閲の可能性を長年懸念してきたことに端を発している。だが、オープンソース化することでマスクが望むような効果が得られるとは考えにくい。それどころか、予想外の問題をいくつも引き起こす可能性があると専門家は警告している。
マスクは権威に対して強い嫌悪感を抱いているかもしれないが、アルゴリズムの透明性を求める彼の願いは、世界中の政治家の願いと一致している。アルゴリズムの透明性を求める願いは、近年、巨大テック企業に対抗しようとするさまざまな政府の試みの基礎となっているのだ。
英国政府でソーシャルメディアの規制を担う英国情報通信庁(Ofcom)のメラニー・ドーズCEOは、ソーシャルメディア・プラットフォームはコードの仕組みを説明する必要があると語った。同様に、4月23日に合意に至ったばかりの欧州連合(EU)のデジタル・サービス法でも、アルゴリズムに関する透明性の確保をプラットフォームに義務づける予定だ。米国では、民主党上院議員が2022年2月に「アルゴリズム説明責任法」の法案を提出した。タイムラインやニュースフィードなどさまざまなものを支配するアルゴリズムに、新たな透明性と監視をもたらすことが目的だ。
ツイッターのアルゴリズムを第三者から見えるようにして、競合他社が利用できるようにするということは、理論的には、誰でもツイッターのソースコードをコピーしてリブランディングしたものを、独自のバージョンとしてリリースできるということだ。インターネットの大部分は、オープンソースのソフトウェアで動いている。中でも、特に有名なOpenSSLは、ワールド・ワイド・ウェブ(WWW)の大部分で使われているセキュリティ・ツールキットだが、2014年に大規模なセキュリティ侵害に見舞われた。
オープンソースのソーシャル・ネットワークでさえ、すでに存在している。ツイッターの支配的な地位に対する懸念を受けて設立されたマイクロブログ・プラットフォームであるマストドン(Mastodon)は、オープンソースであり、ユーザーはソフトウェア・リポジトリのギットハブ(GitHub)に投稿されたコードを調べるだけで、仕組みを確認できる。
しかし、アルゴリズムの背後にあるコードを見たからといって、それがどのように機能しているかが分かるとは限らないし、そのアルゴリズムを作成するためのビジネス構造やプロセスを一般人が見抜けるわけでもない。
ロンドンのキングス・カレッジのジョナサン・グレイ上級講師(最重要社会基盤学)は、「遺伝物質だけで古代生物を理解しようとするようなものです」と話す。「何もわからないよりはましですが、それだけで暮らしぶりがわかるというには無理があるでしょう」。
ツイッターを制御するアルゴリズムも一つではない。英国のデ・モントフォート大学でコンピューターと社会的責任について研究しているキャサリン・フリック博士は、「アルゴリズムの中には、トレンドやコンテンツ、おすすめアカウントなど、人々がタイムライン上で何を見るかを決定するものもあります」と話す。人々が主に興味を持つのはユーザーのタイムラインに表示されるコンテンツを制御するアルゴリズムだろうが、それさえも学習データがなければあまり役に立たない。
ケンブリッジ大学の博士研究員であるジェニファー・コッブは、「近年、アルゴリズムの説明責任について議論されるとき、私たちは必ずしもアルゴリズム自体を見たいわけではないことを認識しています。私たちが本当に欲しいのは、それらがどのように開発されたかについての情報なのです」と述べる。その大きな理由は、人工知能(AI)のアルゴリズムが、その訓練に使われるデータに含まれる人間のバイアスを永続化させるという懸念があるためだ。誰がアルゴリズムを開発し、どのようなデータを使用するかによって、アルゴリズムが吐き出す結果に大きな違いが生じる可能性がある。
コッブ研究員にとっては、潜在的な利益よりもリスクの方が大きい。コンピューターのコードからは、アルゴリズムがどのように訓練され、テストされたのか、どのような要素や考慮事項が組み込まれたのか、その過程でどのようなものが優先されたのか、といったことが一切読み取れない。
アルゴリズムのオープンソース化は、ツイッターの透明性に大きな影響を与えないかもしれない一方で、重大なセキュリティリスクをもたらす可能性もある。
多くの場合、企業はデータ保護影響評価を公表している。この評価では、自社のシステムを調査・テストして弱点や欠陥を明らかにしている。弱点や欠陥が検出されれば修正されるが、セキュリティリスクを防ぐためにデータを編集することはよくある。ツイッターのアルゴリズムをオープンソース化すれば、Webサイトのコードベースに誰もがアクセスできるようになり、悪意のある者がソフトウェアを徹底的に調べて脆弱性を見つけて悪用することが可能になる。
デ・モントフォート大学のエルケ・ボイテン教授(サイバーセキュリティ)は、「私は今のところ、イーロン・マスクがツイッターのインフラとセキュリティをすべてオープンソース化しようとしているとは、まったく思っていません」と話す。
ツイッターのアルゴリズムをオープンソース化すると、さらに別の問題が発生する可能性がある。悪意のある者がシステムをうまく利用できるようになり、そうなるとマスクのもうひとつの目標である「すべてのスパムボットをやっつける」ことがさらに難しくなる可能性がある。
「必ずしも、アルゴリズムのコードが機能する仕組みの複雑さを個人が理解できるようになるわけではありません。しかし、ツイッターがユーザーのタイムライン上でどのように投稿を推奨しているかを大まかに見分けることはできるでしょう」 とボイテン教授は言う。ツイッターのユーザーは、このプラットフォームが現在どのように運営されているのか正確にはわかっていないが、アルゴリズムをオープンソース化すれば、悪意のある者に新たな武器を与えてしまう可能性があると、ボイテン教授は指摘する。
他にももっと厄介な、意図しなかった可能性がある。重要な懸念のひとつは、人々が素人ながらにアルゴリズムを解析しようとすると、避けられない論争が起こることだ。その結果、さらに有害で実りのない論争が起こるかもしれない。
「小さなことで大騒ぎになるのではないかと心配しています。謎のアルゴリズムについては大げさに言われすぎていますが、実際には、悪い行いをすればそれがツイートの重みづけに反映されるという、社会的な結果に過ぎない可能性が高いのです」(フリック)
アルゴリズムをオープンソース化しても、バイアスの問題は解決しないだろう。政治的に大きく分断している今、バイアスを修正するための行動を起こすことは、技術的というより政治的なレンズを通して見られることは間違いない。
例えば、ツイッターの研究者による最近の論文では、アルゴリズムが左翼的なコンテンツよりも右翼的なコンテンツを促進しやすいことが強調されており、すでに議論の火種になっている。「混乱が起きるでしょう」とフリックは言う。
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷
- クリス・ストークル・ウォーカー [Chris Stokel-Walker]米国版 寄稿者
- 米国在住のフリーランスのテクノロジー&カルチャー・ジャーナリスト。著書に『ティックトック・ブーム(TikTok Boom: China's Dynamite App and the Superpower Race for Social Media)』がある。