人工知能(AI)
-
CNET炎上で物議、チャットGPTはジャーナリストの仕事を奪うか?
オープンAIが開発したAI言語モデル「チャットGPT」をジャーナリストの仕事に活用しようという動きがある。AI言語モデルは、ジャーナリストから仕事を奪ってしまうのだろうか。
-
画像生成AI、元データをほぼそのまま出力 著作権侵害の恐れ
-
生成AIが新章突入、Stable Diffusion共同開発元が動画版を発表
画像生成AI「ステーブル・ディフュージョン」の最初のバージョンを開発した英国のスタートアップ企業が、映像を生成するAIを発表した。既存の映像にテキストや画像を指定すると、新しい映像に変換できるという。
-
AIが書いた文章をほぼ確実に見破る「電子透かし」技術
-
2023年、EUのAI規制は「生成AI」ブームをどう変えるか?
2022年は、ステーブル・ディフュージョンやチャットGPTなどの「生成AI」が人々を驚かせた年になった。2023年にAIの世界はどのように変わるのだろうか。EUのAI規制の行方にも注目だ。
-
マイクロソフト製品はチャットGPTでどのように変わるのか?
-
GAFAレイオフでも「AI冬の時代」が再来しない理由
-
創造性の意味を変えた 「生成AI革命」は どこに向かうのか?
-
顔認識の失敗で収入ゼロに、インドのウーバー・ドライバーの憂鬱
ウーバーは今やインドの多くの人々の収入を支えている。だが、ドライバーの本人確認に使われているアプリによって、一瞬で収入源を失うドライバーもいる。
-
人気アプリでアジア系女性記者が直面したAIのバイアス問題
「ステーブル・ディフュージョン」や「チャットGPT」といった最新のAIモデルは、私たちを驚かせるような能力を発揮する。しかし、性別や人種によるバイアスを反映した思いがけない結果が返ってくることもある。
-
AI生成コンテンツに汚染されるインターネット、その対策は?
大規模言語モデルAIが生成した有害なテキストはインターネット中に広がり、別のAIを訓練するのに使われる。しかも、AIが生成したテキストであるかどうかを見分けるのは、非常に難しい。
-
中国「社会信用スコア」への誤解はなぜ生まれたか?
AIアルゴリズムが市民を評価するという試みは、中国のような権威主義的国家が進めるディストピア的な政策だと批判されることが多い。だが、実際に普及が進んでいるのは西側諸国だ。
-
水没した古代ローマ遺跡を見守る「水中インターネット」
海底に沈んだ古代ローマ時代の高級リゾート地、バイアエの環境をモニタリングするために、音響モデムと水中無線センサーと組み合わせた水中インターネット・システムが利用されている。
-
テック企業で働く「AI倫理」担当者が生き残る方法
「責任あるAI」を求める動きが高まる一方で、企業はいまだに十分な投資をしていない。企業のAI倫理担当者は、ほとんど助けを得られないまま、難しい仕事を押しつけられている。
-
Stable Diffusionがオプトアウトに対応、次期バージョンで
アーティストは今後、テキストに基づいて画像を生成するAIモデル「ステーブル・ディフュージョン」の訓練用データから、自分の作品を除外できるようになる。一歩前進ではあるが、まだまだ問題は多い。
-
オープンAIのCEOが語る「DALL-E2」から学んだこと、これからのこと
-
AIが書いた自然な文章を 見破る方法はあるか?
オープンAIの「GPT-3」の登場によって、AIと人間が書いた文章との見分けがつきにくくなっている。ネット上での誤情報の拡散を防ぐためには両者を見分ける必要があるが、方法はあるのだろうか。
-
アジア系女性にはセクシー画像、人気AIアプリの生成画像にバイアス
AI技術を利用して自撮り写真からさまざまな肖像画を描いてくれるアプリ「レンザ」が人気を集めている。だが、私の写真から生成された画像のおよそ3割はヌードを含む性的な画像だった。
-
GPT-4へ試行錯誤続くオープンAI、「チャットGPT」でも残る課題
-
目の前にドローンが突然現れたら、人は落ち着いていられるか?
警察はカメラを装備したドローンの導入を進めている。無人パトロールなどに活用できるからだ。しかし、普通の人間が突然ドローンに遭遇したら何を思うのかということを警察はよく分かっていないようだ。
-
「生成」ブームの2022年、AIは来年どこに向かうのか?
-
ユーチューブを7万時間見続けたAI、最高のマイクラボットになる
オープンAI(OpenAI)が開発した新しいゲーム・ボットは、7万時間分のユーチューブ映像からマインクラフトのプレイを習得した。膨大なネットの映像からAIが学ぶ手法は、ゲーム以外にも応用できそうだ。
-
最終判断、AIに託す 「安楽死カプセル」が問う 生死の倫理
-
大規模言語AIにアキレス腱、訓練用データが2026年にも枯渇か
近年、各企業がこぞって開発を進めている大規模言語モデルで、ある問題が指摘されている。同モデルを訓練するために必要な質のよい大量のデータが、早ければ2026年にも枯渇するというのだ。
-
メタの言語AI「ギャラクティカ」がたった3日で公開中止になった理由
メタは、科学者を支援する大規模言語モデル「ギャラクティカ(Galactica)」を11月15日に公開した。だが、同モデルが出力する、偏った、誤りのある内容を科学者に指摘され、3日後には公開を中止した。