ディープマインドは、タンパク質の構造を予測するAIツール「アルファフォールド」を用いて、人体に存在するほぼすべてのタンパク質の形状を予測し、35万個のタンパク質構造を格納したデータベースを公開した。
AI技術を利用した採用ツールを使う企業が増えている。企業がAI採用ツールを使うことは、障害を持つ求職者に不利に働く恐れがあるが、雇用差別対策を担当する米国連邦機関は当面、積極的に動くつもりはなさそうだ。
リンクトインをはじめとする大手の求人検索サイトの多くは、ユーザーと求人情報のマッチングにAIを利用している。しかし、そのアルゴリズムが常に公正に機能しているとは限らない。
機械学習システムの訓練用にデータを大量に入手することは、プライバシー保護の観点から困難になっているうえ、現実のデータには偏りが存在する可能性がある。そこで、AIシステム訓練用のフェイクデータセットを現実のデータに基づいて作成し、AIシステムベンダーに提供する企業が現れている。
人工知能による自然言語処理テクノロジーは発展を続けている。だが、AIにヘイトスピーチを検出させる新たな研究結果からは、多くの課題が浮き彫りになった。
人間の会話を模倣する優れた能力で注目を集めている大規模言語モデル(LLM)には大きな課題があるが、商業主義の巨大テック企業はそれに向き合おうとしていない、そこで、同モデルの課題を検証するための世界規模のオープンソース・プロジェクトがこの4月に始動した。
アマゾンは米国での警察への顔認識ソフトの販売停止を無期限に延長した。大手テック企業は現在、警察に対する顔認識テクノロジーの提供を自主規制しているが、連邦法による規制の動きが加速している。
グーグルの研究チームが、検索エンジンの根本的な改修案を発表した。20年以上にわたって使われてきた『索引付け・回収・順位決定』という仕組みの代わりに、インターネット上の膨大な文書で訓練した大規模言語モデルを使って、ユーザーの問い合わせに自然な言葉で回答するようにしようというものだ。
メリーランド・サイバーセキュリティー・センターの研究チームは、最新世代のニューラル・ネットワークへの入力データに少量のノイズを加えることで、必要以上の計算資源を占有させ、AIの「思考」を妨害する攻撃の可能性について発表した。
顔認識システムは人々がWebに投稿する写真を大量に収集して、AIモデルの訓練に使用している。個人的な写真が使用されるのを好ましく思わない研究者らは、人間の目にはわからないわずかな変更を画像に加えて、顔認識システムの訓練を阻止するツールを開発している。
人工知能(AI)の分野にブレークスルーをもたらした「深層学習」のパイオニアであるジェフリー・ヒントンが、深層学習の課題を克服することを狙った、新たな手法である「GLOM」を発表した。現在の段階では仮説にすぎないが、グーグルの研究施設で初期調査が始められている。
人々はこれまで人工知能(AI)について、あまりに狭く、エンジニアリング的・抽象的な観点から捉えてきた。現実世界に及ぼす影響を考えると、AIは決して中立ではなく、人工的でも知的でもないと、AIナウ研究所の共同創立者であるケイト・クロフォード博士は話す。
オープンAIが開発した大規模言語モデル「GPT-3」が作成する文章は、不気味なほどのリアリティで人間の書く文章を模倣できる。だが、こうした成果は主に、ニューラル・ネットワークの規模と訓練に使うデータをとてつもなく大規模化したおかげであり、現在のAIが抱える無視できない問題点も明らかにしている。
Web上で無許可で集めた顔写真を用いた顔認識システムを提供していることで物議を醸しているAI企業と、ニューヨーク市警が、極めて友好的な関係を築いていたことを示す電子メールが公開された。同市警は、試用期間が終わった後も同システムを使い続け、現場の捜査で利用しており、個人所有のデバイスからアクセスしている警察官もいた。
カリフォルニア大学バークレー校の研究チームは、強化学習の手法を使って、ロボットに二足歩行をゼロから習得させようとしている。人間サイズのロボットに歩行を自己学習させることで、さまざまな地形に対応する能力や、転んだり損傷を負ったりした際に回復する能力を獲得させられるかもしれない。
「パームの父」として知られる神経科学者でテック起業家のジェフ・ホーキンスは、現在の人工知能(AI)に疑問を持っている。40年近くにわたって神経科学とAIの2つの世界を行き来してきたホーキンスは、知能の仕組みを解明したといい、世界中のAI研究者に議論を呼びかけている。
企業はどうすれば機械学習を利用して業務を変革し、重要な問題を解決できるようになるか。AI界のパイオニアであり、新たなベンチャー会社を率いるアンドリュー・エンが語った。
今日、人々がデジタル・プラットフォーム上で実行していることはすべてデータとして収集・分析され、テック企業が収益を得るために利用されている。私たちは個人では無力だが、集団で行動を起こすことで、この力関係を是正できるかもしれない。
LGBTQの若者らに向けたホットライン「トレバー・プロジェクト」は、ボランティアのカウンセラーの教育に、ノースカロライナ州出身の16歳の「ライリー」という架空の人格を備えたAIチャットボットを使用している。ただし、教育の効率を上げることだけが目標ではない。
人間の知能はさまざまな知覚と言語能力の組み合わせから生まれる。こうしたマルチモーダルな手法を用いれば、新しい状況や問題により容易に対処できる堅牢なAIを作り出せる可能性がある。
アルゴリズムに基づく意思決定が重要な場面で使われる機会が増えるにつれて、その社会的影響が問題視されるようになってきた。「アルゴリズム」と聞くと一般的に、客観的なデータに基づいて、人間には振る舞いを予測できないほど複雑な処理を実行していると思われがちであるが、実際にそうとは限らない。
AIアルゴリズムを用いて人材採用を効率化ツールが米国企業で普及してきた。ツールベンダーの中には「バイアス批判」に応え、アルゴリズムに対する監査を依頼している企業もあるが、監査人はある種のバイアスを見逃す可能性があるうえ、そのツールが職務に最適な候補者を選ぶことを保証するわけでもない。
産業技術総合研究所の片岡博士らの研究チームは、フラクタル図を使ってニューラルネットを訓練することで、現実の写真の大規模データセットを用いる場合と同様な結果を得られることを示した。手作業で訓練データを作成する労力と時間が省けるだけでなく、偏りを含まないデータセットを作るのに役立つ可能性がある。
機械学習は既存の不平等を永続させる傾向があると指摘されているが、カリフォルニア大学バークレー校の研究者たちは「逆転の発想」により、機械学習により既存の医学的知識の欠陥が明らかになる場合があることを示した。
人工知能(AI)のバイアスに対する批判の多くはラベル付けへの批判だった。だが、画像生成アルゴリズムにはインターネットに存在する性差別・人種差別的な視点が反映されている。