12月2日、AI研究者のコミュニティに衝撃が走った。著名な人工知能(AI)倫理研究者であるティムニット・ゲブルがグーグルを解雇されたと発表されたからだ。ゲブルは責任あるAIの研究における第一人者であり、顔認識技術の差別的な性質を明らかにした画期的な研究の共同執筆や、アフィニティグループである「ブラック・イン・AI(Black in AI)」の共同創設、テック業界における多様性拡大への積極的な訴えなどで知られている。
12月2日の夜、ゲブルはツイッターで、グーグルの倫理的AI部門の共同リーダーの職を解かれたと発表した。「私の上司の上司が、私の直属の部下たちに対し、私の辞職を受け入れたというメールを送ったようです。私は辞職などしていませんでした」とゲブルは述べている。
12月3日のブルームバーグ(Bloomberg)のインタビューでゲブルは、AI倫理に関する研究論文の公開を巡る上司たちとの長期的な対立を経て、今回の解雇という状況に至ったと述べている。ゲブルのツイートのひとつと、グーグルのAI研究のトップであるジェフ・ディーンが後に送った社内メールから、この論文が大規模言語モデルの環境コストと、そこに織り込まれたバイアスについて批判的であったことが伺える。
Thanks @red_abebe. @JeffDean I realize how much large language models are worth to you now. I wouldn’t want to see what happens to the next person who attempts this. https://t.co/rIBXYPvQ3d
— Timnit Gebru (@timnitGebru) December 3, 2020
ゲブルは、4人のグーグルの同僚および2人の外部協力者と共同でこの論文を執筆し、2021年に開催される研究カンファレンスに提出した。同論文に対して社内で内部レビューが実施された後、ゲブルは論文を撤回するか、グーグルの社員の名前を論文から削除するよう求められた。ゲブルは、上司らがいくつかの条件をのめば要求を受け入れると回答し、それができないようなら「辞職について考える」と述べた。
I said here are the conditions. If you can meet them great I’ll take my name off this paper, if not then I can work on a last date. Then she sent an email to my direct reports saying she has accepted my resignation. So that is google for you folks. You saw it happen right here.
— Timnit Gebru (@timnitGebru) December 3, 2020
ゲブルはまた、社内のメーリングリスト「グーグル・ブレイン・ウーマン・アライズ(Google Brain Women and Allies)」に宛てて不満を顕にするメールを送った。その内容は彼女が黒人女性研究者として繰り返し経験してきた困難について詳細に綴ったものであり、「私たちは、怒りを顕にして黒人に関する研究をしただけです。その結果どうなったか分かりますか? 考え得る最も根本的なやり方で、私を黙らせようとしているのです」と書かれていた。
その後休暇を取ったゲブルは、仕事に復帰する前にグーグルの研究部門のエンジニアリング担当副社長であるメーガン・カチョリアから解雇を告げるメールを受け取った。「条件を明確にしてくださってありがとうございます」。ゲブルがツイートしたように、メールにはそう書かれていた。「1番と2番の要求は同意できません。その結果としてあなたがグーグルを離れるという決定を我々は尊重し、辞職を受け入れます」。そして、ゲブルがメーリングリストに送ったメールは「グーグルのマネージャーの意に沿わない」ものであったと続け、「結論として、我々は本日付けでのあなたの即時辞職を承認します」。
12月3日朝、ソーシャルメディア上でゲブルを支持する声が多く寄せられたことを受け、ディーンはグーグルのAI研究グループに向けて、自らのアカウントからこの状況についての社内メールを送信した。ディーンは、ゲブルの論文が「あまりにも数多くの関連研究を無視していた」ため、「会社としての公開基準を満たせなかった」と述べている。また、ゲブルが提示した条件には、「論文のレビューの一環としてメーガンと私が話を聞いた人物、および相談をした人物全員の名前と、その正確なフィードバックを明らかにする」ことが含まれていたと述べている。
「高い評価を受けている研究者として、そしてグーグルAI倫理部門のマネージャーとしてのティムニットの役割を考えると、当社の取り組みに対して彼女がそのような感情を抱くような状況に至ってしまったことを本当に残念に思います」をディーンは書いている。「AIをより公平で包摂的なものにしようというティムニットの情熱を、私たち全員が心から共有していることは分かっています」。
ゲブル、ディーン、グーグルの広報担当者のいずれもコメントの求めには応じておらず、本件の正確な進展状況、あるいは解雇の原因は未だにはっきりしていない。だが、詳細が少しずつ明らかになるにつれて、ゲブルのツイッター・プロフィールのトップにピン留めされている11月30日のツイートが改めて注目されている。「内部告発者を保護するのと同じように、倫理的AIの研究者を保護する規制に取り組んでいる人はいますか?」とそのツイートには書かれている。「特定のグループの人々に対してこれだけたくさんの検閲や脅迫がされているのに、この分野において現実的な研究が実施されているなどと、誰が信じられるでしょうか?」
- 人気の記事ランキング
-
- Who’s to blame for climate change? It’s surprisingly complicated. CO2排出「責任論」、単一指標では語れない複雑な現実
- Exosomes are touted as a trendy cure-all. We don’t know if they work. 「奇跡の薬」エクソソーム、 効果不明も高額治療が横行
- Who’s to blame for climate change? It’s surprisingly complicated. CO2排出「責任論」、単一指標では語れない複雑な現実
- AI can now create a replica of your personality AIとの2時間の会話で「そっくりさん」、スタンフォードら新技術
- カーレン・ハオ [Karen Hao]米国版 AI担当記者
- MITテクノロジーレビューの人工知能(AI)担当記者。特に、AIの倫理と社会的影響、社会貢献活動への応用といった領域についてカバーしています。AIに関する最新のニュースと研究内容を厳選して紹介する米国版ニュースレター「アルゴリズム(Algorithm)」の執筆も担当。グーグルX(Google X)からスピンアウトしたスタートアップ企業でのアプリケーション・エンジニア、クオーツ(Quartz)での記者/データ・サイエンティストの経験を経て、MITテクノロジーレビューに入社しました。