完全な自律型ロボットではなく、単独でできない仕事は人間が遠隔操作で実行する家庭用ロボットを開発している企業がある。低賃金国の労働者がロボットを通じて遠隔地から作業をこなせるようになると、労働市場はさらに複雑になるだろう。
人型ロボットの開発が膨大な資金を集め、バブルの様相を呈している。「人型」という見た目によって有用さを過剰に演出し、実際の能力とのギャップが懸念される中、新興企業のプロスパー・ロボティクス(Prosper Robotics)は、ロボットが家庭に受け入れられるために必要となる「信頼の獲得」に取り組んでいる。
スタンフォード大学の研究チームは、論理ゲートを利用してニューラル・ネットワークを構築することで、エネルギー消費量を大幅に削減する方法を発表した。最終的には「ハードウェア基盤モデル」と呼ぶものを作りたいと考えだ。
AIの訓練に使用されるデータセットのほとんどは、インターネットから無差別に収集されている。研究者グループの大規模な調査から、現在のAIのデータ収集方法には、少数の大手テック企業に権力が圧倒的に集中する危険性があることが分かった。
人工知能(AI)の急速な進化に伴って、ますます膨大な電力が必要になっている。AI企業は持続可能性目標の達成と、大量の電力を必要とする大規模モデルの開発との板挟みになっている。
夜間に渡りを行う鳥たちは、わずか50ミリ秒の短い鳴き声で仲間と交信する。この微かな信号を捉え、種を特定する——。長年、鳥類学者たちの夢だったその技術が、機械学習によって実現した。音響データの宝の山が解き放たれつつある。
米国のデータセンターの二酸化炭素排出量は2018年以降、3倍に増加している。オープンAIの「Sora(ソラ)」のような、より複雑なAIモデルが普及すれば、この数字はさらに上昇するだろう。
米国連邦取引委員会(FTC)がAI企業による誇大宣伝や虚偽表示を追求している。カーン委員長の任期終了が迫る中、次々と措置を講じ、業界の放漫な主張に歯止めをかけようとしている。
料理のレシピを読み取り、ワインを推薦し、時には謝罪も——。カメラに映る世界と会話できるグーグルの次世代AIアシスタント「アストラ(Astra)」は、生成AI時代の新しい可能性を予感させるものだ。MITテクノロジーレビューが非公開デモを体験。現時点の実力を探った。
戦争の勝敗を決めるのは、もはや兵器の性能ではない。AIモデルが戦場の最前線における意思決定を支援するようになる時代はもうそこまで来ている。オープンAIとの提携でも注目される防衛スタートアップのアンドゥリル・インダストリーズ(Anduril Industries)の試験場を訪ねた。
オープンAIは、テキストから動画を生成するAIモデル「Sora(ソラ)」の一般提供を開始した。チャットGPTの有料版ユーザーが利用可能で、月額200ドルのプランでは最長20秒までの動画の生成に対応する。
ディープフェイクは今や、国家安全保障にとって深刻な脅威となっている。米国防総省(DOD)はディープフェイクの検出と影響力をテストするために、スタートアップ企業のハイブAIと2年間で240万ドル相当の契約を結んだ。
AIにとって混沌としたタイミングで米国の政権が変わる。新政権はバイデン大統領が2023年に制定した大統領令を廃止すると見られるが、イーロン・マスクが話を複雑にしている。
グーグル・ディープマインドは生成的機械学習を用いた新しい気象予測モデル「ジェンキャスト(GenCast)」を発表した。従来の気象予測システムと比べて正確な予測が可能で、異常気象の予測にも優れているという。
実質現実(VR)を用いた警察官の訓練、センサーの網に監視される都市、生成AIによる報告書の生成——。米国の1万8000もの警察組織のトップらが参加するカンファレンスでは、こうしたAI活用法が紹介された。
オープンAIは12月4日、アンドゥリルと提携し、米軍のドローン防衛システムの開発を支援すると発表した。軍事利用を明確に禁止してきた同社にとって、大きな方針転換だ。
スタートアップ企業のエクサ(Exa)は、新しい検索エンジンの最初の消費者向けバージョンを発表した。大規模言語モデルの基盤となる技術を使用することで、競合他社の検索エンジンより的確な検索結果のリストを返すことができるという。
日本のスタートアップ企業であるオレンジは、生成AI「Claude」を活用してマンガの英訳に取り組んでいる。従来に比べて人手と時間を大幅に削減でき、わずか数日のタイムラグで新刊を配信できるという。
米バイデン政権の終焉を前に、科学技術顧問を務めたアラティ・プラバカーが独占インタビューに応じた。科学技術政策の成果を振り返るとともに、AI安全性の現実的な課題、半導体産業の国内回帰、科学技術への信頼低下まで、米国が直面する重要課題を語った。
人間のようにふるまって、さまざまなタスクを自律的に実行するAIエージェントが、遠くない将来、登場しそうだ。それに備え、今から検討しておくべき倫理的問題点とは?
最大1000体のAIエージェントが、ゲーム「マインクラフト」内で驚くべき社会を形成した。エージェントは自発的に役割を分担し、経済活動を始め、文化や宗教を作り上げたという。
AIモデルに対して実施するベンチマークテストは、企業が自社のモデルの性能をアピールするためにしばしば利用される。だが、新たな研究によると、こうしたベンチマークテストは、設計が不十分であることが多いという。
アフリカのAI研究者たちは、インフラや資金の制約といった課題を抱えながらも、アフリカの言語で、アフリカ人のニーズに応えるツールを開発している。
シカゴ大学の研究チーム開発した、AIによる無断利用から作品を守るツールは、すでに数百万回ダウンロードされ、アーティストたちに希望をもたらしている。
大規模言語モデル(LLM)は、差別的な発言や暴力的な回答を出力することがある。チャットGPTの開発元であるオープンAIは、LLMの有害な振る舞いを防ぐために実施している安全性テストの手法を一部公表した。