昨年11月のリリース以来、チャットGPT(ChatGPT)は多くの人々の仕事で活用されている。熱心な利用者は、マーケティング資料や電子メールから報告書まで、あらゆる文書の作成にチャットGPTを活用しているのだ。
サイエンス誌に6月13日に掲載された論文によって、職場におけるチャットGPTの効果が初めて示された。マサチューセッツ工科大学の大学院生(経済学)による今回の研究は、チャットGPTが従業員間の文書作成能力の差を縮めるのに役立つ可能性を示している。研究の結果、文章を書くスキルに欠ける経験の浅い労働者でも、チャットGPTを使うことで、熟練したスキルを持つ同僚と同じような質の文書を作成できる可能性があることが分かった。
論文を執筆したシャクト・ノイとホイットニー・チャンは、マーケティング担当者、データアナリスト、大卒の専門家ら453人を採用し、プレスリリース、短いレポート、分析プランの作成など、普段仕事として取り組んでいるタスクの中から2種類をそれぞれ実行してもらった。参加者の半数には、2つのタスクのうち2つ目を完了するためにチャットGPTを使用できるものとした。
その後、他の専門家グループによる品質チェックが実施され、7点を最高とする7段階評価が下された。評価は、研究プラットフォームであるプロリフィック(Prolific)を通じて採用された、同じ職種で働く3人の人物によって実施された。
チャットGPTを使用した参加者は、使用しなかった参加者に比べ、タスクの完了にかかる時間が40%短く、品質が18%高いと評価された。もともと文章を書くのに長けている参加者は作業時間を短縮でき、一方で文章を書くのが苦手な参加者はより質の高い文章を書けるようになった。
「チャットGPTはこの種の文書を作成するのが非常に得意なので、文書作成プロセスの一部を自動化するのに使えば、時間を大幅に節約できそうです」。論文の筆頭著者であるノイは言う。
「はっきりしているのは、チャットGPTはホワイトカラーの仕事にとって非常に便利だということです。これから多くの人が使うことになるでしょうし、ホワイトカラーの仕事の仕組みにかなり大きな影響を与えることになるでしょう」とノイは続けている。
しかし、チャットGPTや他の生成AI(ジェネレーティブAI)モデルが出力する情報は、信頼できるものとは言い難い。チャットGPTは虚偽の情報を正しい事実として提示することに長けている。つまり、労働者はチャットGPTを活用することでより生産的に仕事をすることができるかもしれないが、間違った情報を取り入れてしまう危険性もあるということだ。
仕事の内容によっては、こうした不正確さが深刻な影響を及ぼす可能性がある。米国のスティーブン・シュワルツ弁護士は先月、チャットGPTを利用して虚偽の司法見解や法的引用を含む法的準備書面を作成したとして、裁判所から5000ドルの罰金を科された。
「技術の進歩は当然のことであり、信頼できる人工知能(AI)ツールを補助的に使うことは、まったく本質的に不適切なことではありません」とケヴィン・キャステル判事は述べている。「しかし、既存の規則では、提出書類の正確性を確かなものにするために、弁護士には管理者としての役割が課せられています」。
この研究は、AIが一種のバーチャル・アシスタントとして機能することで、職場でどのように役立つ可能性があるかを示している、とカーネギーメロン大学の研究者で、大規模言語モデルの労働者における使用について研究している荒川 陸は言う。荒川はこの研究には関与していない。
「研究結果は、この種のタスクにおいて、人間とAIの協力がいかに上手く機能するかを示す、実に興味深いものだと思います。人間がAIを活用してアウトプットを洗練させれば、より良いコンテンツを生み出せるようになります」と荒川は続けている。