東大寺の夜に考えた、AIと人間の未来
診断力において、医師はすでにAIに勝てない。
スーバー病理医、スーパー放射線科医、スーパー内視鏡医、そしてスーパー内科医・・・
もはや、あがいても仕方がない。
1人の医師がどんなに頑張っても、AIの圧倒的な経験値(学習量)には決して勝てないのだ。
ケアマネさんの世界にもAIが押し寄せてきているらしい。
昨日まで奈良で開催されていた日本介護支援専門員協会・近畿ブロック研究大会のシンポジウムは「AIへの挑戦状」という、文字通り挑戦的なテーマだった。
僕は「医療と介護におけるAI」というテーマで、主に医療領域におけるAIの台頭とそれに伴う人間医師との役割分担、そこから見える対人援助におけるAIの活用について話題提供をさせていただいた。
先日開催された規制改革推進会議でもAIの医療への活用がテーマだった。
AIは蓄積されたデータから、「シロかクロか」を判定する能力が特に優れている。
例えば、健診胸部エックス線写真から「腫瘤」を見つける。内視鏡動画または記録画像から早期胃がんを見つける。いずれもその検出能力において、AIは熟練の放射線科医・呼吸器内科医を凌駕する。
海外では上部消化管内視鏡検査に実装されたAIが、検査映像を自動モニタリングして問題なしと判断すれば、自動的に経過観察が選択される。すでにAIは健診を含む医療領域で医師の仕事の一部を「代替」し始めている。
しかし日本では「医師法」に基づき、機械が医業をすることはできない。
健康診断も2人医師体制が原則だ。胸部エックス線も内視鏡写真も、検査を実施する医師に加え、その領域の専門医による画像チェック(二次判断)がルールになっている。
AIの異常検出能力は専門医よりも優れている。
であるなら一次スクリーニングはAIに任せ、AIが疑わしいとしたケースのみ専門医がチェックするようにすれば医療現場の負担は大きく軽減できるのではないか。健診コストを下げることもできるし、見逃しによって不利益を被る患者も増えないはず。
誰もがそう考えると思う。
しかし、日本ではここから先が進まない。
AIの異常検知能力が人間の専門医より高いとは言え、その感度は100%ではない。
もし一次スクリーニングで見逃しがあったら誰が責任を取るのか。
AIそのものに責任はとれない。AIの開発者も損害賠償請求を受けるつもりはないだろう。患者は「自己責任」を嫌う。結果として、やはり医師が判断したことにしたほうがよいのではないか、という話になる。
見逃し(過小診断)を減らせるように、もっと感度を上げればいいのではないかという議論もある。しかし感度を上げれば、今度は過剰診断=病気はないのに病気かもしれないから、と二次検査に送られる人が増えることになる。
CTや内視鏡などの二次検査はゼロリスクではない。それに伴う不利益(放射線による二次発がんのリスク、内視鏡に伴う事故や合併症のリスク)もある。もちろん高額なコストも伴う。それが健診に伴う利益(肺がん・胃がんによる死亡者を減らす)を上回ることは許されない。
もちろんこれはAIに限ったことではない。人間の医師も同じだ。
変な話、健診のエックス線を全部「異常」と診断すれば、感度は100%、見逃しはゼロになるのだ。しかし、これでは健診にならない。
重要なのはAIに任せるのか、人間がやるのか、ではなく、過小診断と過剰診断のバランスをどのあたりで許容できるか。これはAIではなく、私たちの価値観で決めること。
また、責任を取らせるだけに医師を配置するというのはもうやめて、ワクチンの国家賠償制度のように、AIによる見逃しがあった場合には国が責任を取る、という形にはできないか。これくらいドラスティックな方法を選択しないと、これ以上、医療診断へのAIの実装が進まないように思う。
内科のように画像診断系でない領域でもAIの利用は進んでいる。
各種AIはすでに医師国家試験をクリアしている。また、診断補助においても、AIの有用性はすでに明らかにされている。
一方で、医師を介さずに患者が一人でAIを使っても、正しい病名や適切な受診先につながらないことが多い、という研究報告もある。
この研究では、AIに体調の相談をした患者の35%は重大疾患の可能性を見逃し、45%は適切な受診先につながらなかった。
理由は3つ。
①患者
AIへの情報伝達が不十分
患者の症状説明が不完全で、AIが正確な判断材料を得られない。
②AI
患者への情報伝達も不十分
AIが提案した複数の可能性を患者が正しく理解できない。
③標準モデルだけでは適切な予測ができない
AIは医師国家試験では良い成績でも、実際の「人との対話」は十分に評価できない。
でもこれは人間の医師においても同じ。
まずは患者から必要十分な情報を収集する必要がある。診断のプロセスや結果をわかりやすく説明し、理解・納得してもらったうえで最適な医療につなぐ必要がある。また診療以外の情報(経済的状況や周囲の人間関係、就労環境など)が状況判断を左右することもある。
AIがカバーしきれない部分=患者が上手に言語化できていない部分、AIが学習対象としていない部分を補完し、AIが得意なエビデンスの部分を統合するのが人間としての医師の役割になるのなのだろう。
AIは医師の診断プロセスを改善するという報告もある。
AIは「答えを出す」「説明する」ことに優れている。
しかし、AIはデータが不足していても確定的に判断する(答えを出す)ようトレーニングされている。また学習ケースからは例外的ケース(ノイズ)は除外されている。したがって不完全な答えであっても時に断定的に回答する。
しかし、診断において重要なのは「不確実性を認識する」こと。
そこで、ある医療AI(ConfiDx)に、単に「診断する」のではなく、①診断基準との適合度を説明、②不確実性の有無を明示、③不確実性の理由を説明、④追加で必要な情報を具体的に提示という出力構造を持たせたところ、診断精度・不確実性認識能力・診断説明の妥当性・不確実性説明の妥当性の4項目において他のAIよりも優れた結果を出すことができた。
また、このAIを使うことで医師の診断プロセスによい影響が生じたという。(医師の診断プロセスの改善:不確実性認識:+10.7%・診断説明精度:+14.6%・不確実性説明精度:+26.3%)
ケアマネジメントは、画像診断というよりも内科の臨床推論と治療選択のプロセスに近いと思う。
シロ/クロで判断する画像診断とは異なり、AIはその人の人生の全体像を把握することが今のところは得意ではない。小さなノイズが排除された「標準モデル」から「標準ケアプラン」を複数提案することはできるのだろうが、そこにその人の「こだわり」や「いきがい」がどの程度反映できるのだろうか。
診断AIに向き合う内科医のように、ケアマネはまずは利用者の「人生」とその人の望む「くらし」をしっかりとアセスメントすることが、これまで以上に重要になってくるのだと思う。
その上で、提案されたケアプランに、AIが処理できない「小さいけど重要なもの」をしっかりと反映させていく。この詳細なインプット、そしてアウトプットの修正を繰り返していく中で、使いものになるケアプランAIが徐々に育っていくのではないかと思う。
また、私たちも逆にAIがケアプランを作成していく「思考プロセス」を通じて、新たな考え方や選択肢の存在を学ぶこともできるのかもしれない。
AIを使う、ではなく、AIを育てる、AIとともに成長する。
そんなスタンスがこれからの対人援助者には求められるのかもしれない。
たまたま夜間の特別拝観で公開されていた東大寺。
奇しくも奈良公園146回目の誕生日とのことで、美しい花火のご相伴に与りました。
貴重な機会を頂戴しました日本介護支援専門員協会、近畿ブロックの皆様、ありがとうございました。
佐々木淳

