生成AIを使って1つの画像を生成するには、スマートフォンをフル充電するのと同じくらいのエネルギーが必要だという研究が発表された。具体的な数字が計測されたことで、今後のAIの使用法などを考えるきっかけとなりそうだ。
ハギング・フェイスとカーネギー・メロン大学の研究グループは、生成AIモデルによるエネルギー消費量と二酸化炭素排出量を調べた研究成果を発表した。特に画像生成モデルでは大量のエネルギーを消費することが分かり、モデルの訓練だけでなく「使用」時の省エネ化が課題として浮き彫りになった。
2年半にわたって協議されてきたEUの「AI法」がついに合意に達した。重要かつ法的拘束力を備えた、透明性と倫理に関する規則の先駆けとなる、世界初の包括的なAI規制だ。
人間のあいまいな指示ではロボットは判断を誤り、事故を起こす可能性がある。最近発表された「KnowNo」は、大規模言語モデルと信頼度を定量化する統計ツールを組み合わせることで、人間に助けを求めるよう訓練するモデルだ。
グーグルは12月6日、オープンAIに対抗する最先端のAIモデル「ジェミナイ(Gemini)」を発表した。発表の前夜、グーグルのピチャイCEOがMITテクノロジーレビューのロングインタビューに応じ、ジェミナイが自社やAI、社会全体に対して与える影響について語った。
グーグル・ディープマインドは12月6日に、「GPT-4」対抗馬として以前から噂の「ジェミナイ(Gemini)」を発表した。同社は、ほとんどの面でGPT-4に勝るとしているが、その差はごくわずかであるように思える。
ディープマインドが新材料を探索するAIシステムを発表した。太陽電池、バッテリー、半導体など、性能向上に新しい材料を求めている分野は数え切れないほどある。従来、新材料の探索は完全に人手に頼っていたため、効率が悪く、長い時間がかかっていた。
中国政府機関が生成AIの規制に関する草案文書を発表した。同文書は、テック企業が実施すべきセキュリティ評価とその評価基準について、非常に具体的な方法を明確に示しており、参考になりそうなところも多い。
オープンAI(OpenAI)のサム・アルトマンCEOの電撃解任を主導したとされるのが、同社の共同創業者であるイリヤ・サツケバー主任科学者だ。MITテクノロジーレビューは騒動の1カ月前に独占インタビューを実施していた。インタビューからはサツケバーが目指していたAIの方向性が浮かび上がる。
アルトマンCEO解任から一転して復帰の喧噪も冷めやらぬ間に、今度はオープンAIが小学校の算数の問題を解けるAIモデルを開発したと報じられた。汎用人工知能に近づいたと色めき立つ向きもあるが、噂に過度な期待は禁物だ。
11月17日のサム・アルトマンCEOの電撃解任に始まったOpenAIの内紛は、紆余曲折を経てアルトマンのCEO復帰という形で決着を迎えた。17日からの4日間の経緯と業界に与えた影響を説明する。
汎用人工知能(AGI)という言葉は、明確な定義がなく、テクノロジー界で論争の的になっている概念の1つだ。グーグル・ディープマインドの研究チームは、それを解決しようとしている。
文章・画像生成AIモデルは基本的に、暴力やヌードなどの有害な画像を生成しないようにポリシーで定められている。だが、「スニーキープロンプト」と呼ばれる新たな脱獄手法で、これらのモデルが生成しないはずの画像を作れることが実証された。
スタンフォード大学「人間中心のAI研究所」の共同所長を務めるフェイ・フェイ・リーが、AIがもたらす人類滅亡のリスクやAI界における権力の集中など、この分野の困難な問題について自身の考えを語った。
ディープマインドが開発した気象予報AIモデルが、従来の予報モデルの性能を上回ったとする研究結果が発表された。9月のノバスコシア州へのハリケーンの上陸を従来モデルよりも3日早く予測したという。
マイクロソフトのサティア・ナデラCEOは、開発者へのAIツール提供に注力している。本誌の独占インタビューで、開発者向けプラットフォームのシフトについての考えを語った。
人間は騒がしい環境の中でも、特定の音を選んで聞き取ることができる。ニューラル・ネットワークを用いることで、それを可能にするシステムが開発された。
先駆的なAI研究と啓蒙活動で知られるジョイ・ブオラムウィニ博士が、現在のAIのもたらす危害を指摘し、思いがけずに活動家になるに至った経緯について語った。
全米で脚本家や俳優がAIの使用についてのストライキに入っている中、メタなどのテック企業は俳優を時給150ドルで雇ってAI訓練用の映像を撮影していた。こうして取られたデータはいずれ、俳優業界全体に影響をおよぼすかもしれない。
ネット上の作品を生成AIの訓練に勝手に利用する企業への反発が広がっている。画像に眼に見えない細工をしてAIモデルの誤作動を引き起こすツールは、企業とアーティストの力関係を変えられるかもしれない。
意識を持つ機械を作ることは、テクノロジストの夢の一つだ。例えば、最近の大規模言語モデルは人間のように会話ができるが、意識を持っているかどうかをどうしたら知ることができるだろうか。
AIによる画像の無断利用にアーティストたちが対抗する新たなツールが開発された。人間の目にはわからない加工を画像データに施すことで、この画像データを訓練に使った生成AIモデルを破壊できるという。
AIスポーツジムトレーナーが登場し、AIが生成した本が書店に並ぶなど、AIが人間の生活に与える影響はますます大きくなっている。私たちは今後、AIに対してどのように接していったらよいのだろうか。
チャットGPT(ChatGPT)などの大規模言語モデルに、司法試験などの難関とされるテストを解かせて、その能力を高く評価する動きがある。しかし、大規模言語モデルに人間向けのテストを解かせることに、どれほどの意味があるのだろうか。
東京大学大学院情報理工学系研究科准教授の五十嵐歩美は、限りある資源を数学理論に基づいて公平に分配する手法を追い求め、真に公平な社会の実現を目指している。