公益財団法人テルモ生命科学振興財団

財団サイトへもどる

中高生と“いのちの不思議”を考える─生命科学DOKIDOKI研究室

サイト内検索

生命科学DOKIDOKI研究室 15周年記念特別対談

02 ロボットとAIは医療をどう変えるか

生成AIの登場で問われる医師の役割

――いま、ChatGPTをはじめとする生成AIが話題です。AIやロボットが医療や生命科学研究をどう変えていくのか、その可能性や限界についてお考えをお聞かせください。

大和

AIはこれまで何度もブームになっていて、1980年代、ぼくがちょうど学部とか大学院の学生のころにも大きなブームがあったのね。そのころは、「人間の知能は機械で再現できるか」みたいなことを真面目に考えていて、第五世代コンピュータ*1の開発をテーマに540億円を投じた国家プロジェクトが動いていた。80年代のAIというのは論理学、数学、推論がベースになっていたもので、ぼくもけっこう真面目に勉強したのでわりと詳しいんですよ。ところがいまテレビをつけると、NHKで「このニュースはAIによる自動音声でお伝えします」とかやるでしょ。AI音声って、いわゆるラージ・ランゲージ・モデル(Large Language Model、LLM)*2なんだけど、「あれをAIって呼ぶのってどうよ?」って気がするなぁ。

*1 第五世代コンピュータ:第一世代(真空管)、第二世代(トランジスタ)、第三世代(集積回路)、第四世代(大規模集積回路)に続く、人工知能対応の次世代技術。音声・画像などの直接入力、自然言語による会話処理、学習・連想などの高い知能をもたせ、知識ベースに用いる推論が可能な新しいコンピュータ技術」の開発を目標に、通商産業省(現経済産業省)などが研究された。

*2 ラージ・ランゲージ・モデル:自然言語処理の一分野で使用される深層学習アルゴリズムを用いた人工知能の一種で、生成AIの一部に含まれる。主にテキストデータを処理し、与えられた数百万から数十億以上のパラメータを持つテキストを大量に学習させることで、応答を生成する能力を持つ。

高橋

AIに詳しい大和先生にとってはイケてないかもしれないけれど、生成AIに関していうと、素人でも使えるようになったことがものすごく大きいと思います。マイクロソフト社のAIラボが神戸にできたとき、そこのオープニング用に何か作ってと依頼されて、医者が患者に説明する部分をChatGPTに置き換えてみたんです。そしたらめちゃくちゃいいのができちゃって…。
それまでは画像診断の補助というような使い方だったんだけど、会話形式になったらもう、医者がやってることをそのままやってくれる。論文を全部読んでいるAIの医者がいるわけですから、ちょっとやそっとじゃ勝てないなぁという気がしてきました。
生成系ができるまではAI時代の人間の医者に重要なのは「想像力と人間性です」って言ってたんですよ。でも、「人間性も負けるな」って思えてきて、大学で講義するときは、「もうこれからはわからないから、あなたたち考えて」と、学生さんたちに言ってます。

大和

医者は腕ももちろん重要なんだけど、患者さんとしゃべって、患者さんがどういう状態なのかをちゃんと理解できて、それを患者さんにわかりやすく説明できる能力が求められていると思うんですよ。いまものすごく高い検査っていっぱいあるでしょ、CT、MRで1万円、PETだと10万円ぐらいかかるのに、検査結果の説明はものすごく短いわけ。高いぶんだけ長く説明してほしいよね。

高橋

今回私たちが作った患者に説明するソフトって、同じことを何回問い直しても言い方を変えて、正しいことを言ってくれるんですね。医者も人間だから、3回も同じことを聞かれたらイラッとするでしょ。人間性も負けるっていうのはそこ。人間の方が気持ちに寄り添えると思われそうだけど、私たちのチームでは、次は患者さんの言葉づかいとか表情で説明を変えるAIにしようなどと言い出していて、そうすると人間性も太刀打ちできないという感じですよね。

創造性と人間性までも、
生成AIに負けてしまいそう。
人間が勝てる部分はどこかを考えないと。

ロボット+AIで細胞培養のレシピを改善

高橋

もうひとつAIの事例でご紹介したいのは、AIを活用して細胞培養してくれるロボットをつくったケースです。先ほどiPS細胞を目的の細胞に分化させるには「iPSソムリエ」という熟練した匠の技が必要だと言いましたが、細胞治療を一般化していくためには、標準化が重要なんですね。でも細胞って取り扱いが難しくて、つくる人によってばらつきが出てしまうんです。培養のやり方を示す手順書はもちろんあるんですが、経験を積むにも時間がかかるし、熟練者が無意識にやっている技は客観的に伝えづらい。これでは標準化して、多くの人に細胞による治療を届けるのは難しい。実際、そのことが問題になってきています。
我々はそれを10年前から経験しているので、突破口を探していた2018年のはじめ、ロボットとAIを組み合わせてiPS細胞を培養しようというプロジェクトを提案されました。産業総合研究所主席研究者の夏目徹(なつめ・とおる)先生たちが開発したヒューマノイド・ロボット「まほろ」を使い、AIで分化誘導効率を高める培養条件の要件を抽出しようというものです。幸い、網膜色素上皮細胞は色素があるので分化誘導の良し悪しを判定しやすい。AIに学習させるに向いているとチャレンジを始めました。
AIの専門家とロボットの専門家が細胞培養のプロにあれこれヒアリングして、いろんな仮説を立てて細胞培養の条件を設定すると、ロボットは確実に毎回同じ操作をします。そしてどんな条件だとうまくいって、うまくいかないのはどんな場合かをAIに探索させたんです。本格的にスタートしてからわずか半年ほどで、熟練者の技を超える細胞培養のレシピ改善に成功しました*3
理研での基礎研究が終わったあと、このロボットは神戸アイセンター*4で一緒に働いています。頼もしいパートナーという感じですね。

*3 詳細は、2022年6月28日 理化学研究所 ニュースリリース「再生医療用細胞レシピをロボットとAIが自律的に試行錯誤-ロボット・AI・人間の協働は新しいステージへ-」を参照
https://www.riken.jp/press/2022/20220628_2/index.html

*4 神戸アイセンター:眼の治療と研究に加えて、視覚障害の患者さんの生活を助けるデバイスの紹介や訓練までトータルにサポートしたいと高橋先生が提唱し、神戸市の協力で2017年にポートアイランドに作られた眼の総合診療センター。

iPS細胞から網膜色素上皮細胞への分化誘導工程を実装した汎用ヒト型ロボットLabDroid「まほろ」

大和

細胞製造に活躍しているのはヒューマノイド・ロボットということだけど、医療の手術現場で使っているロボットは、普通の人が思っている鉄腕アトムみたいな自立型のロボットじゃなくて、セカンダリーといって外科医が操作するタイプのロボットです。
1999年にアメリカのインテュイティブ・サージカル(Intuitive Surgical)社が開発した「ダ・ヴィンチ(Da Vinci)」が有名ですよね。3Dカメラがとらえた患者の体内の立体映像をモニタで見ながら医師が装置を動かすと、医師の手の動きに連動して遠隔操作で手術器具も動く。手振れを制御してくれるし、15倍ズームができて人の手より1本多い3本のアームが使えるスグレモノ。
国産の「hinotori」や、内視鏡、腹腔鏡では天才的な国立がん研究センター東病院の伊藤雅昭(いとう・まさあき)先生が自分の経験をもとにつくられた「ANSUR 」も評判がいいですよね。残念なのは、2019年にDa Vinciの特許が切れたことで開発できたってこと。マネじゃなくて、日本発のものすごい特許が出てくるといいんだけど‥‥

デバイスの進化がすごい

高橋

話がそれますけど、私、いま自動運転の研究もしているんですよ。経済産業省の審議会に出たときに、自動運転の技術が進んでいるという話を聞いて、それなら視覚障害の人が乗れるんじゃないかと思ったんですね。みなさん「視覚障害者が運転するなんて危ないから無理だ」とおっしゃったけど、視覚に障害があって運転したい人っていっぱいいるし、障害のレベルもさまざまなんですね。視覚障害というとまったく見えない人をイメージしがちですが、視野がぼやけたり、視野・視覚が欠けたりぼけたりして見えづらい視野障害の人なども含めさまざまです。
そこでドライビング・シミュレーターを使って視野障害の人の運動能力を調べていらっしゃる西葛西・井上眼科病院 の國松志保(くにまつ・しほ)先生と筑波大学の伊藤誠(いとう・まこと)先生にも参加していただいて、どんなアシストがあれば自動運転の車に乗れるかなどを探っています。
それと日本では運転免許を取るときに両目で0.7以上という視力における1つの基準しか問題にしませんが、これ以外に、視野が欠けたり、狭くなったりする眼の病気っていっぱいあるんですよ。必要視力を満たしていても視野障害があると事故を起こしやすいので、先ほどお話しした神戸アイセンターでドライビング・シミュレーターを体験してもらっています。将来的には眼の状態に適した運転補助があって、右から車が来るとか、見えにくい部分を音声で車が教えてくれればいいわけです。

大和

障害をサポートしてくれるデバイスって大事ですよね。

高橋

いまデバイスで解決できることってけっこうあるんです。視覚障害者ってITリテラシーが高い人が多いんですよ。スマホやタブレットを使って、いろんな能力を拡張しています。
たとえば、「Be My Eyes」が有名ですが、これはボランティアにビデオ通話をすると、カメラに写っているものを教えてもらえる視覚支援アプリ。これがなんとChatGPT-4oになって画像を音声化できるようになったので、ボランティアがいなくても、常に誰かと一緒に歩いているような形で道案内してくれたり、ユーザーが質問したことに答えてくれたりするんです。すごい進化ですよ。

大和

AIブームってどうよって思う部分もあるけど、それはすごいな。海外のデモなんかを見てると、音楽や会話の音声に合わせてリアルに人物が動くものもすでに登場してる。実に自然で、ああいうのを見るとどこまでいくかなーとは思うね。

AIや医療ロボットの限界

大和

いまの生成AIって、使い道はいっぱいあって、医者をヘルプしたり、代替したりするような方向には非常に使い勝手がいいのね。患者さんの症状とかデータを打ち込むと、この抗生剤をこういうふうに投与しましょうというのをAIが教えてくれるシステムなどもすでにつくられています。そういう処方や診断をAIでやるっていうのは、たとえば2016年に東大医科研でIBM社の「ワトソン」というAIが診断の難しい特殊な白血病を10分ほどで見抜いて子供の命を救ったということで大いに話題になったけど、じゃあ診断や治療をすべてAIに任せられるかというと、そうはいかないわけね。
わかりやすい例で言うと、自動運転中の車が事故を起こしたとき、だれがどう責任をとるかっていう問題がある。この間乗ってみたんですが、車が喋るわけ。自動モードで高速で走ってるとき、「前の車が遅いです、追い抜いてもいいですか?」って車が聞いてきて、ハンドルについているイエスのボタンを押すと、ヒューンッと抜いてくれるのよ。それぐらいは楽勝でできる。でも事故ったら、ドライバーの責任なのか、自動車メーカーの責任なのか、責任問題が発生しちゃう。
病理診断でもロボット手術でも、間違えたりうまくいかないことって絶対あるよね、難しいことをやっているんだから。人間が最大限の努力をしたんだけど、どうしてもミスっちゃったっていう場合は、人間だから最後の責任をとれる。それを全部取っ払っちゃって機械に任せたら、機械の責任というのは機械をつくった会社の責任なのか、機械を薬事承認した規制当局(国)の責任なのか? AIによる診断やロボット手術もまったく同じで、その問題が解決しないと、そう簡単には医者の代わりをしてくれるAIやロボットは出てこないと思いますね。

AIやロボットが
診断や手術でミスをおこしたときに
誰が責任を取るかという問題が発生します。

研究テーマもAIが決める時代?

高橋

私いま、生命科学ももう「実験はロボットがやるべきだ」って人たちと一緒にやっているので、本当にどこで人間が勝てるんだろう、ってよく思うんですね。よく「研究のネタを考えるのは人間の仕事だ」という話が出るじゃないですか。でも北野宏明*5(きたの・ひろあき)先生は、研究テーマも全部AIに考えさせて、そのうちノーベル賞をもらうようなプロジェクトが出てくるんじゃないかとおっしゃってます。

*5 北野宏明:日本におけるAIの最先端研究と事業化の立役者の一人。ソニーグループ副社長兼CTO、R&D担当、AIコラボレーション担当、ソニーコンピュータサイエンス研究所 代表取締役社長。人工知能研究開発ネットワーク会長。

大和

理研のスーパーコンピュータ「京(けい)」ができたときに何に使っていいかわからないといって、ぼくのところにも文科省の担当者が相談にみえたんですよ。ゲリラ豪雨による線状降水帯がはやっていたから、この予報をやるといいですよって提案したんですね。天気予報って予測対象とする空間単位(グリッド)をメッシュ(立方体のマス)で区切ってグリッドごとに微分方程式を解くわけだけど、計算機のパワーが小さいとグリッド1個が大きくなっちゃって線状降水帯の詳細な予報なんて無理だから、京ならピッタリだと思ったの。そしたら「それは気象庁の仕事です」いうわけで却下(笑)。
ところがCOVID-19がはやったときに、マスクの有無でくしゃみ時の飛沫やエアロゾルがどこまで飛ぶかをスーパーコンピュータの「富岳」でシミュレーションしましたよね。あれを提案したのはChatGPTなんだそうです。

高橋

研究のネタを考えるのもAIになるかもしれないという話が出たときに、ある人が、「ぼくはこの結果を、パッションを持って心に響くように伝えることができます」と言ったんですよ。たしかにそこかな…、と。パッションなら、私もAIに負けない自信があります。

次ページ03 答えがない問題にチャレンジする勇気

この記事をみんなにシェアしよう!