フラッシュ2024年2月29日
-
人工知能(AI)
画像診断AIに落とし穴、医学的に無関係の領域に注目して診断
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]東北大学の研究チームは、医用画像診断AI(人工知能)が診断を下す際に、答えは正しくても、AIが診断に至った根拠と専門医の所見が必ずしも一致しているとは限らないことを明らかにした。医学的に妥当でない不適切な根拠に基づく診断は、思わぬ結果を招く危険があるため、このような危険性を認識して対策することで、より安全性の高いAIの臨床応用が求められる。
研究チームは今回、AIが医用画像中のどこに注目して診断したのかを可視化する技術を用いて、その注目領域の医学的な妥当性を詳しく解析。先行研究で高性能を達成した深層学習モデルの注目領域と、医師の診断に基づく重要領域を比較した結果、深層学習モデルの高い分類性能に反して、その注目領域の30~80%は医学的な重要領域と無関係であり、両者に大きな齟齬があることがわかった。
医用画像診断へのAIの応用が進められているが、AIが訓練データから何を学んだかなどの詳細はこれまで十分に解明されていなかった。同研究はAIによる医用画像診断の医学的な妥当性に懸念があることを示しており、今後、新たな訓練法の開発など、さらなる検証と対策を進める必要がある。
研究論文はジャーナル・オブ・イメージング・インフォマティクス・イン・メディスン(Journal of Imaging Informatics in Medicine)誌に、2024年2月9日付けで掲載された。
(中條)
-
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷