政治的なバイアスのない、中立的なAIチャットボットは魅力的なアイデアだが、実現は技術的に不可能だ。だからこそ、AIの回答を鵜呑みにしないようにする必要がある。
メタが7月18日に無償公開した大規模言語モデル「Llama 2(ラマ)」を使ったサービスや製品の開発が相次いでいる。先行するオープンAIなどのモデルに比べてどこが優れているのか。
最新の研究により、大規模言語モデルには政治的なバイアスが多く含まれていることがわかった。質問に対して得られる回答の内容が、モデルによって右派的になったり左派的になったりするのだ。
教育現場はGPT-4をどう活用すれば良いのか。生成AIを通じて「教育」はどのように変化するのか。MITテクノロジーレビューは、「チャットGPT時代の教育」をテーマにしたイベントを9月1日に開催する。
IBMフェローとして実社会でのアクセシビリティ研究、視覚障害者のためのナビゲーションロボット「AIスーツケース」の開発・社会実装を進めながら、2021年には日本科学未来館館長に就任した浅川智恵子氏に、イノベーションで大事な考えについて聞いた。
グーグル・ディープマインドやファーウェイなど、AI研究で先頭を走っている企業が、気象予測AIモデルを相次ぎ発表した。既存の天気予報に迫る予測精度を記録しているというこれらのAIの利用には大きな利点がある。
今や、世間の誰もが人工知能(AI)について語りたがっている。しかし、話が噛み合わないことも少なくない。そこで、AIのニュースを日々追いかけている記者に、自信を持ってAIについて語る秘訣を明かしてもらった。
近年急速な進歩を遂げたAIが人類に大きな害をもたらすと主張する声が高まっているが、ビル・ゲイツはあまり心配していないようだ。
MITの研究チームが開発した新手法は、目に見えない変化を写真に加えることで生成AIを混乱させ、画像の改変を防ぐ。
生成(ジェネレーティブ)AIによる搾取や害毒に、人々はこれまでなすすべもなかった、だが最近になり、政治家や権利を侵害された人々の巻き返しが活発になっている。
人工知能(AI)テック企業によって損害を被っているとする訴訟が急増している。AI利用に対する抑制や補償は、これから作られる法律ではなく、裁判の結果によってもたらされるかもしれない。
ディープマインド共同創業者のムスタファ・スレイマンは、新しいチューリングテストでは人間の指示をもとに「AIがどれだけうまく稼ぐか」を評価すべきだと提案する。こうした有能人工知能(ACI)は、2年後にも実現する可能性があるという。
メタ(Meta)は新しい大規模言語モデル「Llama 2(ラマ2)」をリリースした。オープンソースとして公開し、無料で利用できる。
チャットGPTをプレスリリースやレポートの作成に使うことで、ホワイトカラーの生産性を高められることが、サイエンス誌に掲載された新たな研究成果で示された。
最近の生成AI関連の動きは誰もが驚くほどのスピードで進んでいる。一方で欧州や米国では規制の動きもあるが、追いついていない状況だ。
チャットGPTを使って学生が課題を書き上げてしまうのではないか、との懸念が教育現場で広がっている。AI生成文書を検出すると謳うAIシステムは有効なのか? その正確さを評価した研究結果が発表された。
「クラウド」という言葉を提唱したグーグル元CEOのエリック・シュミットは今、人工知能(AI)は科学を再構築し、すべての人々に影響を及ぼすだろうと主張する。
ジェフリー・ヒントンやヨシュア・ベンジオといった、現在のAIの隆盛に大きく貢献した人たちが、AIが人類を絶滅させるかもしれないと訴え始めている。パリにあるメタのオフィスを訪れ、もう1人のゴッドファーザーであるヤン・ルカンに話を聞いた。
AIモデルは天気予報のプロセスを大幅にスピードアップし、予報や異常気象警報をより正確にする可能性があることが、2つの最新研究で明らかになった。
チャットGPT/GPT-4の対抗馬となるオープンソースの生成AIモデルの発表がこの春相次ぎ、さながらブームとなっている。だが、その多くは大手テック企業が公開したモデルをベースにしており、大手テック企業の戦略に左右される恐れがある。
最新の研究によると、オープンAIのGPT-3によって生成されたデマが、人間が作成したデマよりも信頼されやすい可能性があることが分かった。
サンフランシスコなどの大都市ではすでに、無人自動運転の「ロボットタクシー」が乗客を乗せて走行している。だが、それに対する政策はまるで追い付いていない。
最近になり、多くのAI業界の著名研究者やCEO、さらには政治家に至るまで、人工知能(AI)が人類を滅亡させる可能性があると語るようになった。一体何が、こうした風潮を生み出しているのだろうか。
チャットGPTを開発したオープンAIなど、最先端のAIシステムを開発している企業は、インターネットからかき集めたデータでAIを訓練している。だがこのやり方が、個人データの扱いをめぐって欧州を中心に物議を醸している。欧州データ保護監察機関の監督官に話を聞いた。
人工知能(AI)システムの訓練に使うデータを作成するギグワーカーの3割超が、チャットGPTのようなAIを使っている可能性があることが分かった。ただでさえエラーを起こしやすいAIモデルに、さらなるエラーを持ち込む可能性がある。