「AIを診療に使うな」で日本の医療は守れるのか
世界では何が起きているか
アメリカでは、診察中の会話をAIが自動で文字起こしして、カルテに流し込むサービスが標準になりつつあります(日本でも徐々に普及が進んでいるイメージですがまだ道半ばと言ったところです)。
Abridgeという会社は、その技術だけで評価額5,000億円を超えました。MicrosoftはNuanceを2兆円で買収して、DAX Copilotという医療AI音声サービスを全米の病院に展開しています。
ヨーロッパでは、EU AI Actという厳格な規制ができました。ただし、そのスタンスは「使うな」ではなく「こう使え」です。リスク管理と透明性を求めた上で、使うことを前提にルールを作っている。
アメリカもヨーロッパも、方向は同じです。AIを医療に入れる。その上で、安全に使うためのルールを整備する。
日本では何が起きているか
「AIを診療に使うと、いろいろ面倒なことが起きて、最終的に罰せられますよ。」
大げさに聞こえるかもしれないけど、日本で出回っている情報を読むと、要約するとだいたいこうなります。
薬機法、個人情報保護法、3省2ガイドライン、医療広告ガイドライン。規制の解説記事はたくさんある。「気をつけましょう」「遵守しましょう」「禁止されています」。正しい。全部正しい。
でも、「じゃあ具体的にどうすれば安全に使えるのか」を書いている人がほとんどいない。
結果、現場の医師は萎縮する。「なんか怖いからやめとこ」で終わる。
でも、こっそり使ってるでしょう?
ここが僕が一番不健全だと思っているところです。
ChatGPTに症状を入力して鑑別を聞いたことのある医師、かなりいるはずです。患者説明の文章を作らせている人、いるでしょう。
でも、誰もおおっぴらに言わない。
気持ちはわかる。言ったら叩かれるかもしれない。ガイドラインに抵触するかもしれない。
だから黙って使う。こっそり使う。
これは望ましくない状態だと僕は思っています。
こっそり使うから、ノウハウが共有されない。ノウハウが共有されないから、安全な使い方が広まらない。安全な使い方が広まらないから、規制側は「使われていない」前提でルールを作る。ルールが現実と乖離するから、ますますこっそり使うしかなくなる。
この悪循環を誰かが断ち切らないといけない。
本当に禁止されていることは、思っているより狭い
ここで冷静に整理します。
まず事実として、音声認識でSOAPを自動生成するサービスは、すでに複数の企業が商用で販売しています。AIによるレセプトチェックソフトも複数社から提供されています。それなりの数のクリニックが日常的にそれを使っていて、問題にはなっていない。
これらが許されているのは、「AIが補助し、医師が最終判断する」という原則を守っているからです。
法律で明確に禁止されているのは、以下のことです。
- AIの出力をそのまま最終診断として採用すること
- 未承認のソフトウェアを診断目的で臨床使用すること
- AIの性能を誇大に広告すること
逆に言えば、これ以外は禁止されていません。
AIが候補を出して、医師が判断する。これは合法です。AIが文書の下書きを作って、医師が編集して署名する。これも合法です。AIが検査値を読んで説明文を生成して、医師が確認して患者に渡す。これも合法です。
「AIは補助、最終判断は医師」。この原則を守っている限り、Non-SaMD領域でのAI活用は法的に問題ない。
僕が作った36個のツールは、全部この原則で動いています。AIが出した結果は、すべて編集可能な状態で画面に出る。僕が確認して、必要なら直して、それから使う。AIに最終判断を委ねたことは一度もない。
具体的な構成
AI処理: AWS Bedrock Claude(東京リージョン)
ZDR(Zero Data Retention)契約。入力データは保持されず、モデル学習にも使用されない。サーバーは東京リージョン。患者データは日本国内で完結する。
音声認識: faster-whisper(院内GPU)
診察室の会話をリアルタイムで文字起こしする。処理は院内のGPU(RTX 3070)で完結。音声データは外部に一切送信されない。
データ経路: ブラウザ → localhost → Bedrock(TLS暗号化)
院内のPC1台でサーバーが動いている。患者データがインターネット上に保存される場所はない。
全ツール共通の原則: AI生成物は必ず編集可能。
紹介状も、診断書も、SOAPも、全部下書きとして表示される。医師が確認・編集してから使う。例外はない。
3省2ガイドラインが求めている「安全管理」の核心は、患者データを適切に管理することです。Bedrock ZDRはデータを保持しない。Whisperは院内で処理する。データは外に出ない。
これで全部クリアとは言わない。ガイドラインはアクセス制御や監査証跡など、他にも多くの要件を定めています。でも、みんなが一番怖がっている「患者データがクラウドAIに食われる」問題は、この構成で解決できる。
「使わないリスク」を誰も語らない
規制の議論では、AIを使うリスクばかりが語られます。誤診のリスク。情報漏洩のリスク。法的責任のリスク。
でも、AIを使わないリスクを語っている人を、僕はほとんど見たことがない。
これは生産性うんぬんの話ではありません。
今、患者さんはChatGPTに自分の症状を入力して、考えられる疾患を聞いてから診察室に来ます。LLMの普及で、医療の情報格差は急速に縮まっている。患者さんが持っている情報量は、1年前とは比べものにならない。
医師側はどうか。多くの医師は、(建前上)自分の頭の中にある知識と経験、手元にある医学書だけで診療しています。今まではそれで良かった。情報の非対称性が医師の側にあったから。
でも、その前提が崩れ始めている。
世界では、AIを医師の「外部記憶」「能力拡張」として使う流れが進んでいます。音声SOAPは、医師が聞き取った情報を一語も落とさず記録する外部記憶です。採血レポートは、数十項目の検査値を横断的に読み解いて患者向けの説明文を生成する能力拡張です。紹介状AIは、SOAPと検査データと処方を統合して、宛先の専門医に必要な情報を漏れなく構成する能力拡張です。
AIは医師を置き換えるものではなく、医師1人が扱える情報量を飛躍的に拡張するものです。
よく聞く反論があります。「素人が中途半端な情報を持つのが一番厄介だ」と。医学的に正しいかどうかも判断できないのに、情報だけ持ってどうするんだと。
それは正しい。僕もそう思います。患者さんがChatGPTで得た情報は、正確なものも不正確なものも混ざっている。
でも、患者さんが情報を持って診察室に来るという事実は変わらない。「持つな」とは言えない。もう持っている。
だったら、医師側がそれ以上の情報を扱えればいいだけの話です。そのための能力拡張として、AIを使えばいい。
規制を守ることは大事です。当然です。でも、医療を扱い治療を決定する責任者である医師が、能力拡張の手段を自ら放棄して、それでいいのか。世界がAIで医師の能力を拡張していく中で、日本だけが止まったままでいることの方を、僕は心配しています。
診療にAIが使えなくなっても困らない
最後にもうひとつ。
僕のツールは36個ありますが、AIが本質的に必要なのはそのうちの一部です。健診書はフォームと計算式で動く。算定チェックはルールベースで書ける。シフト管理にAIは要らない。
仮に明日「AIを一切使うな」と言われても、6〜7割のツールはそのまま動く。残りもテンプレート化で対応できる部分が多い。
AIでツールを作るが、ツールの稼働はAIに依存していないから、怖くない。怖くないから使える。使うから何が良くて何がダメかを検証できる。検証できるから、改善が進む。
こっそり使っている限り、この循環は生まれない。
問題提起
日本の医療AIを取り巻く状況は、「規制があるから使えない」のではなく、「使い方を誰も示さないから使えない」のだと僕は思っています。
ガイドラインを解説する記事はたくさんある。でも、「俺はこの構成で毎日使っていて、(多分)問題ないよ」と書いている現場の医師は、ほとんどいない。
僕は、自分が使っているものについて正直に書くことにしました。できると思うことは根拠を示して書く。できないと思うことは根拠を示して書く。グレーだと思うことはグレーだと書く。
こっそり使うよりはマシだと思うからです。
この連載では、引き続き個別のツールや技術的な話も書いていきます。
参考文献
- 厚生労働省「医療情報システムの安全管理に関するガイドライン 第6.0版」(令和5年5月)
- 経済産業省・総務省「医療情報を取り扱う情報システム・サービスの提供事業者における安全管理ガイドライン 第2.0版」(令和7年3月)
- 総務省・経済産業省「AI事業者ガイドライン 第1.1版」(2025年3月)
- PMDA「プログラムの医療機器該当性に関するガイドライン」(令和5年3月改正)
ひろつ内科クリニック受診予約はこちらから
https://wakumy.lyd.inc/clinic/hg08874