フラッシュ2024年2月29日
-
人工知能(AI)
画像診断AIに落とし穴、医学的に無関係の領域に注目して診断
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]東北大学の研究チームは、医用画像診断AI(人工知能)が診断を下す際に、答えは正しくても、AIが診断に至った根拠と専門医の所見が必ずしも一致しているとは限らないことを明らかにした。医学的に妥当でない不適切な根拠に基づく診断は、思わぬ結果を招く危険があるため、このような危険性を認識して対策することで、より安全性の高いAIの臨床応用が求められる。
研究チームは今回、AIが医用画像中のどこに注目して診断したのかを可視化する技術を用いて、その注目領域の医学的な妥当性を詳しく解析。先行研究で高性能を達成した深層学習モデルの注目領域と、医師の診断に基づく重要領域を比較した結果、深層学習モデルの高い分類性能に反して、その注目領域の30~80%は医学的な重要領域と無関係であり、両者に大きな齟齬があることがわかった。
医用画像診断へのAIの応用が進められているが、AIが訓練データから何を学んだかなどの詳細はこれまで十分に解明されていなかった。同研究はAIによる医用画像診断の医学的な妥当性に懸念があることを示しており、今後、新たな訓練法の開発など、さらなる検証と対策を進める必要がある。
研究論文はジャーナル・オブ・イメージング・インフォマティクス・イン・メディスン(Journal of Imaging Informatics in Medicine)誌に、2024年2月9日付けで掲載された。
(中條)
-
- 人気の記事ランキング
-
- The winners of Innovators under 35 Japan 2024 have been announced MITTRが選ぶ、 日本発U35イノベーター 2024年版
- Kids are learning how to make their own little language models 作って学ぶ生成AIモデルの仕組み、MITが子ども向け新アプリ
- AI will add to the e-waste problem. Here’s what we can do about it. 30年までに最大500万トン、生成AIブームで大量の電子廃棄物
- This AI system makes human tutors better at teaching children math 生成AIで個別指導の質向上、教育格差に挑むスタンフォード新ツール