この記事は米国版ニュースレターを一部再編集したものです。
人工知能(AI)が進歩する度に、仕事にまつわる不安がささやかれる。「チャットGPT(ChatGPT)」や、オープンAI(OpenAI)が新たにリリースした「GPT-4」など、最新のAIモデルについても同様だ。まずシステムが公開された。そして今、自動化にまつわる未来があちこちで予測されている。
3月末に発表されたゴールドマン・サックスの報告書は、AIの進歩により、世界の労働力の約18%にあたる3億人の仕事が何らかの形で自動化される可能性があると予測している。また、オープンAIも最近、ペンシルベニア大学と共同で実施した独自の研究結果を発表し、チャットGPTが米国の仕事の約80%に影響を与える可能性があるとしている。
この数字だけを見れば恐ろしいが、これらの報告書の言い回しは非常に曖昧だ。 「影響を与える(Affect)」という言葉にはさまざまな意味があり、詳細が不明瞭なのだ。
やはり、言語に関わる仕事をしている人は特に、チャットGPTやGPT-4のような大規模言語モデルに影響を受ける可能性がある。弁護士を例に取ってみよう。私はこの2週間で、法律業界が新しいAIモデルによって受け得る影響を調査した。その結果分かったのは、懸念材料と同じくらい期待材料があるということだ。
体質が古く変化が遅い法律業界は、長い間技術的な破壊が必要だと言われてきた。労働力が不足しているうえに、膨大で複雑な文書を扱わなければならないこの業界では、文章を迅速に理解し要約できるテクノロジーが非常に有用となる。では、これらのAIモデルが法律業界に与える影響についてどのように考えるべきだろうか?
第一に、最近のAIの進歩は法律の仕事に特に適している。GPT-4は最近、弁護士資格取得のための統一試験である「ユニバーサル司法試験(Universal Bar Exam)」に合格した。しかし、だからと言ってAIがすぐに弁護士になれるというわけではない。
そのAIモデルは何千もの練習問題で訓練されたかもしれない。だが、訓練によって受験がうまくなっただけで、必ずしも優れた弁護士になるとは限らない(オープンAIは情報を公開していないため、GPT-4の訓練データについてはほとんどわかっていない)。
それでも、これらのシステムは文章の解析に非常に優れており、その能力は弁護士にとって極めて重要なものだ。
「言語は法律業界や法制度の分野における通貨である」と言われている。あらゆる道は文書につながる。GPT-4の試験を実施したシカゴ・ケント法科大学院のダニエル・カッツ教授は、「ほとんどの作業が、文書の読解、処理、作成に関わることなので、文書はこの業界の通貨であり、その中で人々が取引をしています」と言う。
第二に、カッツ教授によれば、法律業務には適用可能な法律や判例を検索し、関連する根拠を見つけ出すなどの反復作業がたくさんあり、これらは自動化される可能性がある。
「司法試験論文」の研究者の一人であるパブロ・アレドンドは、昨年秋からオープンAIと共に、判例検索サービスである「ケーステキスト(Casetext)」でのGPT-4の使用を秘密裏に模索してきた。ケーステキストのWebサイトによると、同社はAIを使用して「文書レビュー、法律検索メモ、証言準備、契約分析」を実行しているという。
アレドンドは、GPT-4を使えば使うほど、GPT-4の弁護士支援への活用の可能性にますます夢中になっていったと言う。彼は、GPT-4が「すばらしいうえ、絶妙だ」としている。
法制度におけるAIの利用は、新しいトレンドではない。AIはすでに法律分野で契約書のレビューや判決の予測に使用されており、最近ではAIを法案の成立にどう役立てられるかを探求している研究者もいる。消費者権利の支援に取り組む企業、ドゥノットペイ(DoNotPay)は最近、「ロボット弁護士」と呼ばれるAIによって作成された弁論を、イヤホンを利用して聞きながら裁判での口頭弁論をすることを検討した(ドゥノットペイはその妙案を実行しなかったが、弁護士資格なしに法律業務を実施したと訴えられている)。
こうした例があるにもかかわらず、この種のテクノロジーはまだ法律事務所で広く採用されていない。新しい大規模言語モデルによって、状況が変わる可能性はあるだろうか?
第三に、弁護士らは文書のレビューや編集に慣れている。
大規模言語モデルは完璧ではなく、出力結果を細かく確認する必要があり、これが面倒だ。しかし、弁護士は、他の人、あるいは他の物によって作成された文書をレビューすることに非常に慣れている。多くの弁護士は文書レビューの訓練を受けているので、人間が介在する形でのAIの使用は比較的簡単で実用的であり、他の業界でのテクノロジーの採用に比べて実現可能性が高いかもしれない。
大きな問題としては、弁護士らが、ロースクールで3年間を過ごした若手の弁護士よりも、システムを信頼することに納得するかどうかだ。
最後に、制限とリスクの存在が挙げられる。GPT-4は時として非常に説得力のある誤った文章を作成することがあり、出典資料を誤用することがある。アレドンドは以前、GPT-4のせいで自分が取り組んだ裁判の事実に関して疑いを持ってしまったことがあると言う。「私はGPT-4に、『あなたは間違っています。私がこの裁判で弁護したのです』と言いました。そうしたらGPT-4は、『あなたは自分が担当した裁判について自慢したいかもしれませんが、私の方が正しく、証拠があります』と言い、URLを提示してきましたが、何の意味も持たないURLでした」。アレドンドは、「GPT-4はちょっと社会病質者のようなところがあります」とも付け加えた。
カッツ教授は、AIシステムを使用する際には人間が常に介在することが不可欠であり、弁護士が専門家として正確性を担保することがことさら重要になると言う。「これらのシステムからの出力をただ受け取り、レビューせずに誰かに提供するべきではありません」。
もっと懐疑的な人々もいる。電子プライバシー情報センター(Electronic Privacy Information Center)でAIと基本的人権に関するプロジェクトを率いるベン・ウィンターズは、「重要な法的分析が最新であるかどうかや、その適切性を確認するのに、AIを信頼することはできません」と言う。ウィンターズは、法律分野における生成AIの文化を「自信過剰で信頼できない」と表現している。また、AIには人種的偏向やジェンダー的偏向があることがよく知られている。
長期的かつ高次元な懸念事項もある。法律家がAIを使うことで法律調査の練習をあまりしなくなったら、法律分野の助言と監督の上でどのような影響が出るだろうか。
ただ、それはまだ遠い未来の話である。今のところは。
MITテクノロジーレビューの編集主幹であるデイビッド・ロットマンは、新しいAI時代が経済、特に仕事と生産性に与える影響を分析した記事でこう述べている。
「楽観的な見方では、AIは多くの労働者にとって強力なツールとなり、彼らの能力と専門知識を向上させ、全体的な経済に恩恵をもたらすことが証明されるでしょう。悲観的な見方では、企業は単に、かつて自動化できないと思われていた創造力と論理的思考力を必要とする高給の仕事を破壊するためにAIを使用するだけで、一部のハイテク企業とテクノロジー・エリートだけがさらに豊かになり、全体的な経済成長にはほとんど役立たないでしょう」。
◆
テック政策関連の気になるニュース
- 生命の未来研究所(Future of Life Institute)が後援する大規模なAIプロジェクトの一時停止を求める内容の書簡に、イーロン・マスク、ゲイリー・マーカス、アンドリュー・ヤン、スティーブ・ウォズニアックなどの多くの著名人を含む1500人以上が署名した。提案にはAIの専門家からも多くの賛成が寄せられているが、その理由(AIのアルマゲドンの回避)は多くの批判を浴びている。
- ニューヨーク・タイムズ紙は、ツイッターの認証バッジの申請費用を払わないと発表した。認証バッジへの課金でツイッターの利益を上げるというイーロン・マスクの計画に対する新たな打撃だ。
- 3月31日、イタリアの規制当局は、プライバシーに関する懸念から、チャットGPTの使用を一時的に禁止した。具体的には当局は、オープンAIがユーザーデータを使用してモデルを訓練した方法がEU一般データ保護規則(GDPR)に違反しているかどうかについて調査している。
最近、カルチャー関連の記事にはまっている記者がおすすめする記事ををいくつか紹介しよう。
- 同僚のターニャ・バスが書いた、実質現実(VR)でプラトニックに一緒に寝る人々についての興味深い話だ。彼女によれば「居心地が良くて不気味」な新時代のバーチャルなソーシャル行動だという。
- ニューヨーク・タイムズ紙のスティーブン・ジョンソンは、トーマス・ミッジリー・ジュニアのすてきな、しかし恐ろしいプロフィールを書いた。トーマス・ミッジリー・ジュニアは、史上最も気候に悪影響を与える発明を2つした人物だ。
- ワイアード(Wired)のジェイソン・キーヒーは、おそらく皆さんは名前を知らないだろうが人気のあるSF作家のブランドン・サンダーソンに数カ月間かけてインタビューをして、その心を鋭く深く掘り下げた記事を書いた。
テック政策関連の注目研究
「ニュース・スナッキング」と呼ばれる、オンライン記事の見出しやティザーを斜め読みする情報収集の方法は、最新の時事問題や政治ニュースを学ぶ方法としてはあまり効果的ではないようだ。オランダ大学とドイツのマクロメディア応用科学大学(Macromedia University of Applied Sciences)の研究者らの査読付き研究論文によると、「他のユーザーに比べてニュースを断片的に摂取するユーザーは、その高い露出度に対してほとんど学習を得られない」との結果が出たそうだ。また、ニュース・スナッキングは、より集中的にニュースを消費する方法よりも「かなり少ない学習効果しか得られない」という。つまり、情報の量よりも、情報を消費する方法の方が重要であるということだ。
この研究は、人々が日々ニュースに接触する回数は増えているものの、各接触に費やす時間が減っていることを示した既存の研究結果をさらに突き詰めたものだ。その結果、ニュース・スナッキングは情報に詳しい大衆を形成するには良くないということが分かったというわけだ。