現時点で、VRという言葉から一般的にイメージされるのはゲームやエンターテインメント系の映像コンテンツだろう。実質現実(VR)の特徴を言い表す「没入感」という概念も、ヘッドマウントディスプレイ(VRゴーグル)をかぶって「自分だけの世界」に行くイメージがあるからではないだろうか。しかし今、医療の現場でもVR/ARの活用が急速に見えてきた。
1月20日、MITテクノロジーレビュー主催のイベント「MITTR Emerging Technology Conference #1」で、外科医・医学博士であり、医療分野での技術開発を続ける国際医療福祉大学大学院の杉本真樹准教授が「VR/AR医療の衝撃」をテーマに講演した。
冒頭で杉本准教授は「A pictures worth a thousand words.」という言葉を掲げた。多くの言葉を並べるよりも、一枚の絵を見せたほうがはるかに理解が深まり、より多くのことを伝えられるという意味だ。
「だったら、A 3-D is worth a million pictures. といえるのではないか」
杉本准教授の技術開発の一番の目的は、VR/ARで得られる「感覚」を共有することで、身体や医療に関する情報をよりわかりやすく伝えることで、知識や経験がそれぞれ異なる医療関係者同士、あるいは医師と患者との間のリテラシー・ギャップを埋めることにある。
研究のスタートは2003年頃から、当時登場したOsiriX(オザイリクス)という画像処理ソフトウェアを使い、CT/MRIでスキャンしたレントゲン画像をポリゴンの3Dデータに変換したこと。現在はVR/ARでデータを活用している。
「本来、医療の世界ではレントゲン画像などのデータの加工はタブーでした。なぜかというと、診断のために撮った映像を歪ませてしまうからです。でも、私たち外科医は、正確に診断するだけじゃなくて、データをいかに治療に活用するかが重要なのです」
杉本准教授は、手術着に身を包んだふたりの医師が並んでVRゴーグルを装着し、両手に持ったコントローラーを中空で動かしす映像をスクリーンに映し出した。
「VRで手術のシミュレーションをしている様子です。三次元データにモデリングされたがん患者の臓器を、持ち上げたり歪ませたりして見て、どこをどのように切るか、どこを縫合するかを検討しています」
「ミクロの決死圏」の世界
内視鏡手術の様子も映し出された。
「お腹にカメラを入れる内視鏡手術は、普通にやるとナビがなく、難しいのです。カーナビのように、内視鏡がいま、お腹の中のどこにいるかがわからない。そこで、手術前にCTでレントゲンを撮って三次元マップを作っておき、手術中に今いる位置を反映させて、どこにいて、どの方向を向いているかが感覚的にわかるようにしました。あたかも自分が内視鏡の先端部に居るような感覚ですね。『ミクロの決死圏』の世界です」
内視鏡のカメラで写した映像と、ナビの三次元映像を見比べながら手術することで、より正確に手術できるという。また、術者以外の助手や研修生が映像を見ることで、手術を感覚的に体感できる、つまり「教育」としての効用もあるそうだ。
VRゴーグルや、位置情報を検出する赤外線センサー、ハイスペックのコンピュータが低価格で提供されたことで、「これまでは、患者さんひとりひとりのデータを造るのが大変で、できなかった。でも、今は私がオペ室に入るのと同時に患者さんが入り、そこでCTを撮ります。麻酔をして消毒を終えて、手術が始まるまで約30分。それだけあれば、患者さんのデータを立体画像にして取り込んで、患部の色分けなどをしてVRアプリに書き出すのに十分な時間です」という。
VRが医療現場に浸透するのはほんの数年先
イベントの第二部では、来場した全員がそれぞれのスマートフォンにVRアプリ「HoloEyes」をダウンロードし、VRゴーグルで人体、骨格や内臓の3Dモデルを見てVRの世界を来場者が体感した。「VRデータは、実は私の身体です」と杉本准教授がいうと会場が沸いた。
VRが作り出す新たな世界を、まさに「感覚を共有」することによって、来場者にVR/ARの可能性を伝える場になったようだ。
では、いつ頃、私たちがいくような町の病院でこうした技術が使われるようになるのだろうか。
「個人が自分の身体の三次元データをクラウドで管理し、それを医師に見せて診断や治療に活用してもらう。そんな時代が来るのは、この先数年のことじゃないかと思います。今のVRゴーグルは、かつての『ショルダー携帯電話』のように、後世から振り返れば笑い話になるような代物ですが、デバイスはどんどん進化して、普通のメガネのような形態になることも考えられます。さらにその先、デバイスは必要なくなり、空間上に3D映像を映し出せる、そういう時代がくるかもしれません」