深層学習で
医者の仕事が増えすぎ、
対処できなくなる可能性
深層学習には、判断理由が人間にはわからない「ブラックボックス問題」がある。しかし医療では、必ずしもすべてのメカニズムが解明されていたわけではない。深層学習を医療の現場に導入したとき起きるのは、もっと別の問題である可能性がある。 by Monique Brouillette2017.04.28
今年の初め、人工知能研究者のセバスチアン・スラン(グーグルで自動運転部門を率いた)とスタンフォード大学の同僚は、がんの可能性がある皮膚の病変を学会が認定した皮膚科専門医と同じくらい正確に診断できる「深層学習」アルゴリズムを実演してみせた。
がん発見の仕組みはネイチャー誌に掲載されたが、今年、他にも発表されている論文同様「ソフトウェアによる病気診断」の新時代の状況について、初期段階での情報が垣間見える。新時代では、人工知能が医者を支援する一方、医者と競合する場合もある。
専門家は、写真や放射線、MRIといった医用画像は、深層学習ソフトウェアの強みとほぼ完璧に組み合わせられる、という。過去数年間に、深層学習ソフトウェアは、画像に写った顔や物体を認識する点でブレークスルーが起きている。
企業はすでに事業化に向かっている。アルファベット(グーグル)のライフサイエンス部門ベリリは昨年12月、ニコンと提携して、糖尿病患者の視力喪失の原因を発見するアルゴリズムを開発することにした。一方、放射線学分野は綿密な画像を大量に生み出すことから「医学のシリコンバレー」と呼ばれている。
ブラックボックス型医療
スランの研究チームによる予測は非常に正確だったが、ほくろのどの部位を見て深層学習プログラムが、がんと良性の腫瘍を見分けたのかは誰も確実には理解していない。深層学習の「ブラックボックス」問題の医療版が顕在化したのだ。
従来の画像処理ソフトは、プログラマーがルールを定義していた。たとえば、一時停止の交通標識は8角形だ、というルールを設定する。一方で深層学習は、従来のプログラムとは異なり、ルールはアルゴリズム自体が発見する。しかし、どんなルールが構築されたのかを説明する確認用の証跡は残されないことが多い。
医療法を専門とするミシガン大学法学大学院のニコルソン・プライス助教授(法学)は「ブラックボックス医療の場合、医者は何が起こっているのか理解できません。誰にも理解できないのです。本質的に不明瞭なのです」という。
しかし、プライス助教授は、ブラックボックス化によって医療に大きな …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」