オープンAIは、一方のAIを使って他方のAIを訓練することより、多様なタスクに対応できるようAIを学習させる手法を開発した。オープンAIが目標とする、人間が改めて訓練しなくても様々なタスクをこなせる汎用的なAIを構築する際に重要な要素となる可能性がある。
AI倫理への関心の高まりを受けて、AIモデルの監査を支援するスタートアップ企業が続々立ち上がっている。モデルのバイアスを検査したり、リスクを洗い出したりして「責任あるAI」の実現を支援する。
オープンAI(OpenAI)は、説明文を入力すると、それにあてはある画像を大量に生成するAIモデルを発表した。自然言語処理と画像認識を組み合わせることで、AIをより賢くするアプローチが採用されている。
米オーバーン大学の研究者らは、言語理解能力を測定するテストで高得点の自然言語システムが、文中の単語の順序の入れ替えに気づかないことを発見した。こうしたシステムは、文中のいくつかのキーワードを拾い上げてテストの課題を処理しているだけであり、人間のように文の意味を理解しているわけではない。
マサチューセッツ工科大学の研究チームは、自然言語処理のアルゴリズムを用いてウイルスの遺伝子の変化を読み解く手法を開発した。新型コロナウイルスの新たな変異種を予測し、特定する研究を加速させる可能性がある。
ディープマインドが開発した新たなアルゴリズムは、タンパク質の構造を原子サイズで正確に予測できる。この画期的な進歩は生物学における50年越しの難問を解決し、新薬の開発や疾病の解明に取り組む科学者らにとっても大きな進展をもたらすだろう。
予想外のパンデミックが世界を襲った2020年は、人工知能(AI)が社会に与えるさまざまな悪影響が明らかになった。一方で、好ましい動きもある。2021年に期待する5つの動きを紹介しよう。
社会におけるAIの影響力が強まるにつれて、AIを開発・運用する際の倫理的なガイドラインを策定する必要性が高まっている。これまでにいくつかのAI倫理ガイドラインが発表されているが、そのほとんどは、西欧の価値基準に基づいたものだ。
2020年の「ブラック・ライブズ・マター」抗議運動は、これまでにも指摘されていた顔認識テクノロジーの問題点を改めて浮き彫りにした。しかし、多くの事件や禁止令にもかかわらず、同テクノロジーは広まり続けている。
人工知能(AI)が作成するよるねつ造映像「ディープフェイク」は当初、ポルノ映像における顔のすり替えが主要な用途と言っても過言ではなかったが、2020年には、文化の主流に影響を与えるような用例も見られるようになってきた。
2020年は米大統領選挙におけるディープフェイクの氾濫が大きく懸念されていた。だが、この1年を振り返ると、むしろ問題になったのは、「チープフェイク」画像があらゆる場面で拡散され、メディアに対する人々の信頼を揺るがしたことだ。
最近の人工知能(AI)の華々しい成果の背後には、米国の最低賃金にも満たない賃金で、機械学習モデルに入力するデータのラベル付けなどの作業を請け負うギグワーカーたちの存在がある。こうした「見えない労働者」の現状について、ウェストバージニア大学のサイフ・サベージ博士に話を聞いた。
ジョージア工科大学の研究者のチームは、自然言語処理と強化学習を組み合わせることにより、目的を達成するために言葉を使って他者に何かをさせるAIシステムを開発した。言語に満ちた私たちの世界がどのように成り立っているかを、より深く理解することにつながるかもしれない。
人工知能(AI)アルゴリズムがバイアスを持つのは、アルゴリズムの訓練に使われる現実世界のデータセットに「白人至上主義」などの偏りが含まれているからだ。技術者や研究者は、使用するデータセットとアルゴリズムが反映する有害なイデオロギーに対し、責任を持たなければならない。
最近の人工知能(AI)の研究で主流となっている大規模モデルの訓練では、膨大な計算機リソースや電力が必要となる。IBMは、AIモデルのパフォーマンスを大きく落とすことなく、4ビットでAIを訓練できる方法を発表した。
グーグルのAI倫理チームの共同リーダーであったティムニット・ゲブルが解雇(グーグルは辞職と説明)されたことは関係者に衝撃を与えた。原因となった論文は、グーグルのビジネスの中核を支える大規模な言語モデルのリスクを指摘するものだった。
新型コロナウイルス感染症のパンデミックはネットショッピングの行動にも大きな変化をもたらした。中国の電子商取引大手企業は、これまでのAIモデルでは予測不可能となった消費者の不規則な行動に対応するため、AIモデルの再構築を試みている。
テキストだけで訓練された人工知能(AI)には限界がある。ノースカロライナ大学チャペルヒル校の研究チームは、自然言語処理とコンピュータ-・ビジョンを組み合わせる新手法により、常識あるAIを実現しようとしている。
ロボットを現実世界で使えるようにするための研究ではこれまで、相手の考えをモデル化して動きを予測することに重点が置かれてきた。しかし、相手の動きを単純化して把握することで、自動運転車のシミュレーション試験などでより優れた結果を出せる手法をスタンフォード大学の研究者らが考案した。
アレン人工知能研究所は、同社の科学文献検索エンジンである「セマンティック・スカラー」に、論文の内容を一文に要約する機能を導入した。自然言語処理における直近のブレイクスルーを用いることで、各論文を平均で238分の1の分量に短縮できる。
研究室ではうまく機能する人工知能(AI)システムが、現実世界でうまく機能しないことはしばしばある。主な原因としてこれまで、AIを訓練・テストする際に使うデータと現実のデータの不一致が指摘されていたが、グーグルの研究チームは別の原因を突き止めた。
「深層学習の父」と呼ばれるジェフリー・ヒントン教授は、30年前以上前から他人とは異なる考え方を貫き通してきた。ヒントン教授が考えるAIの未来は現在も揺るがない。
テクノロジーの公平性が、人間のそれを上回ることが可能なのだろうか。米国で根強い住宅ローンにおける人種差別の問題を例に、3人の専門家が議論した。
オープンAIの「GPT-3」をはじめとする最近の言語モデルは、非常にうまく人間の言語を模倣する。だが、ネット上で収集した膨大な量の会話データセットを使って訓練されているため、偏見や差別を含む発言を排除することが困難だ。解決策はあるか。
近い将来における人工知能(AI)の有用性は、人間とAIがそれぞれの強みを生かしながら協働することによって得られると考えられている。しかし、少なくとも現時点では、人間とAIのコラボレーションが容易でないことは、「AIソング・コンテスト」の審査員や受賞者の声を聞けば明らかだ。