機械学習と人工知能は障害者をどう支援できるか?
機械学習や人工知能は障害者をどう支援できるのか? 画像や音声、言語を認識できるソフトウェアは、聴覚障害や自閉症を抱える人の支援ツールとして、あらゆる方法で活用されている。 by Tom Simonite2017.03.27
米国連邦通信委員会(FCC)の規則では、テレビ局が聴覚障害や難聴の視聴者向けに、会話や効果音、笑い声といった観客の反応などを字幕表示するよう定めている。YouTubeはこの規則の適用対象ではないが、グーグルの機械学習テクノロジーのおかげで、現在は同様のサービスが提供されている。
ユーチューブは2009年以来、音声をテキスト化するソフトウェアでビデオに字幕を自動表示させている(1日あたり1500万ユーザーが利用)。YouTubeは現在、拍手や笑い声、音楽を字幕表示できるアルゴリズムにまで手を広げている。こうした機能を実現する基礎テクノロジーは、ため息や動物の鳴き声、ドアのノック音といった雑音まで認識できるため、もっと多くの音声も表示できる。
ユーチューブによると、ユーザーテストの結果、音声をテキスト化する機能のおかげで聴覚障害や難聴のユーザー(勤務中などで動画の音量を上げられないユーザーも)が、動画をより楽しめるようになったと判明した。ユーチューブのリアト・カウェル製品マネージャー(聴覚障害者)は「私のようにある状況では介助が必要な障害者でも、機械学習のおかげで健常者と同等に自分ひとりで過ごせるようになりました」という。
YouTubeのプロジェクトは、機械学習の性能や実用性を向上することで新たなアクセシビリティ・ツールを開発するさまざまな研究のひとつだ。コンピューター業界では、広告や検索サービス、クラウド・コンピューティングといった分野からの利益を主な原資に、画像やテキスト、音声を認識できるソフトウェアを開発している。しかし、世界を理解できる能力のあるソフトウェアには、もっといろいろな使い道がある。
たとえばフェイスブックでは昨年、画像認識に関する自社の研究を活用した機能を提供し始め、友だちの写真等のコンテンツをテキストで表示できるようにした。
IBMの研究者は、人工知能ワトソンのプロジェクトで開発した言語認識ソフトウェアで「コンテンツ・クラリファイヤー(Content Clarifier)」というツールを開発し、自閉症や認知症等の認識障害や知的障害を抱える人を支援しようとしている。コンテンツ・クラリファイヤーは、「raining cats and dogs(「雨がひどく降る」の意味)」等の表現をもっと簡単な言い回しに置き換えたり、長い文章を短くしたり、複数の節や間接的な言葉で区切ったりできる。
マサチューセッツ大学(ボストン)は、コンテンツ・クラリファイヤーで識字障害や認識障害の人をどう支援できるかの試験に協力している。プロジェクトに携わったIBMのウィル・スコット研究員によると、IBMでは大学に進む自閉症の高校生が環境の変化に適応できるように支援する団体と協力し、コンテンツ・クラリファイヤーで学生が大学事務局の文書や授業のプリントを理解しやすくなっているか試したいという。「コンピューティング能力やアルゴリズム、人工知能ワトソンのようなクラウドサービスを活用した障害者支援は、以前はできないことでした」とスコット研究員はいう。
ルーベン大学(ベルギー)のイネケ・シュフルマン研究員によると、コンピューターや携帯機器によるコミュニケーションが社会で中心になりつつある一方で、一部の人が取り残されないように新たなタイプのアクセシビリティ・ツールを開発することは重要だという。
シュフルマン研究員は欧州連合のプロジェクトのリーダーのひとりで、プロジェクト内で開発されたソフトウェアで、知的障害者向けにテキストを簡略化できるか試している。このソフトウェアに使われているテクノロジーは、GmailやFacebook等のソーシャル・ネットワークと連動するアプリに搭載されている。「知的障害者でも、他の障害者でも、友人や自分の兄弟、姉妹と同じことがしたいのです。つまり、スマホやタブレット、ソーシャル・ネットワークを使いたいのです」とシュフルマン研究員はいう。
自閉症スペクトラム障害を抱えるオースティン・リバトキンさんは、フロリダにある非営利団体「自閉症を抱えるアーティスト」と協力し、同じ障害を抱える人がもっと自立できるように支援した。リバトキンさんは、IBM等の研究を好意的にとらえているが、そういったツールの動作を確実にするのは難しいという。たとえば、機械学習アルゴリズムは興味のない映画をお勧めしてくるかもしれないし、友人だと誤認させてしまう間違いも起こりえる。
それでも、スタートアップ企業で働きながら大学に通うルバトキンさんは、数年以内には機械学習が障害者向けの新たな機会を数多くもたらしてくれるだろう、と期待している。ルバトキンさんは最近、スタートアップ企業クラリファイの画像認識テクノロジーで、目印になるものを手がかりに道を案内してくれるナビゲーション・アプリの試作品を開発した。アプリ開発のきっかけは、従来のアプリで運転している最中に、テキストや画像による情報を理解するのに苦労したルバトキンさん自身の体験だ。「率直にいって、AIは障害者の抱えるハンデをなくしてくれると思います」とルバトキンさんはいう。
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- This AI-generated Minecraft may represent the future of real-time video generation AIがリアルタイムで作り出す、驚きのマイクラ風生成動画
- トム サイモナイト [Tom Simonite]米国版 サンフランシスコ支局長
- MIT Technology Reviewのサンフランシスコ支局長。アルゴリズムやインターネット、人間とコンピューターのインタラクションまで、ポテトチップスを頬ばりながら楽しんでいます。主に取材するのはシリコンバレー発の新しい考え方で、巨大なテック企業でもスタートアップでも大学の研究でも、どこで生まれたかは関係ありません。イギリスの小さな古い町生まれで、ケンブリッジ大学を卒業後、インペリアルカレッジロンドンを経て、ニュー・サイエンティスト誌でテクノロジーニュースの執筆と編集に5年間関わたった後、アメリカの西海岸にたどり着きました。