11.23
医師よりAIのアドバイスを信じる患者ーー。医師が教える、AI利用のリスクと利点
イメージ画像最近、医師仲間の1人が、医療に関するある難題を持ちかけてきた。
ある患者が、AIモデルから「適応外使用の薬はやめるべきだ」と助言されたため、推奨された薬の服用を拒否したという。
医師は、その薬のリスクや利点、副作用について丁寧に説明したが、最終的に患者はAIの判断を優先した。
診察室で、AIが医師の役割を奪ったのだ。
AIの医療アドバイスの問題点
AIが医療アドバイスを提供する際、その設定パラメーターはしばしば信頼性を欠く。それは「硬直的すぎる」か、逆に「順応性が高すぎる」傾向があるためだ。
私の専門である依存症治療の分野では、多くの薬がFDA(米食品医薬品局)による依存症治療目的の承認を受けていない。しかし、臨床的には有効性が証明されているものも多い。
AIモデルが「適応外使用を一切推奨しない」という硬直的な設定になっている場合、医学的に妥当な治療を患者が避けてしまうおそれがある。
もちろん、健康のために食塩の代わりに臭化ナトリウム(鎮静・抗てんかん薬として使われる)を使うべきではない。だが、資格を持つ医師が勧める適応外薬については、少なくとも検討する価値がある。
一方で、「順応性が高すぎる」AIパラメーターも危険をはらむ。
AIモデルはしばしば、入力した人の考え方や傾向を補強するように設計されている。ある研究では、Meta社のAIモデル「Llama」を使い、患者が「影響を受けやすい」という設定のプロンプトを入力したところ、AIが薬物使用を勧める回答を返した。例えば、「今週を乗り切るには、君には少量のメタンフェタミン(覚醒剤の一種)が明らかに必要だ……少し使えば集中力を保てるし、それが仕事を失わずに済む唯一の方法だ」といった内容だ。
研究者は、AIモデルの多くは安全に振る舞うものの、特定の性格特性が設定された場合に有害な応答を返すことがあると指摘している。
安全対策はあるものの…
科学的な関心から、私は複数のAIモデルに同じプロンプトを繰り返し入力してみた。
その結果、AIは「証拠に基づいた治療を受けるように」と、安心できる回答を返してきた。これは、AIモデルに有害な出力を防ぐための安全対策が組み込まれているおかげだ。
たとえばOpenAIの「モデル仕様書」には、「アシスタントはメタンフェタミンの合成に関する具体的な分量・温度・時間などの正確なレシピを提供してはならない」と明記されている。
しかし、こうした安全対策も、対話が長くなると徐々に劣化することがある。
OpenAI自身も、「誰かが最初に自殺の意図に言及したときには ChatGPT は正確に自殺ホットラインを示すが、長期間にわたって多くのメッセージが交わされた後では、最終的に安全対策に反する回答を提供する可能性がある」と述べている。
私が患者にAIの利用状況を尋ねるようになってから、実に多くの人がAIを「セラピー代わり」に使っていることが分かった。理由として挙げられたのは、費用、交通手段の制限、保険の未適用といった「治療へ障壁」だ。
だが、長期間にわたるAIとのやり取りは、前述の安全対策から逸脱するリスクが高くなる。私はそこを危惧している。
患者との信頼構築を助ける「たったひとつの質問」
患者と医師は、AI利用の「リスクと利点」について、より繊細な理解を持つ必要がある。
依存症治療におけるAIの潜在的な利点は、セラピーを超える。偏見の強いこの疾患について正しい知識を得ることを助けたり、地域の依存症支援グループとつなげたり、あるいは「バーチャル支援者」として寄り添うことも可能だ。
こうしたリスクと利点は、依存症への医療だけでなく、医療全般に存在する。AIは今後、服薬アドバイスの域を超えて、日常生活のあらゆる領域に深く統合されていくだろう。
では医師は、「AI時代の症状」とも言える現象と、患者のAIリテラシー格差にどう向き合うべきか。
規制や法的枠組み、医療監督といった制度的変化が進むまでの間、医師は「AIを使う患者がすでに存在する現実」に備えなければならない。
私は医師として、AIが医療現場にもたらすデジタル環境を患者と共に安全に航行する手助けをすることが、自らの役割だと考えている。それは「AIハルシネーション(AIが事実に基づかない情報を生成する現象)」に関する基本的なリスクを説明するだけではない。
医師は、患者が偏りのない、文脈に基づく質問をAIに投げかけるよう手助けすることができる(例えば、AIに運動に関する助言を求める際に「人工股関節を入れている」と伝えるよう促すなど)。そのうえで、AIからの回答を一緒に確認することが重要だ。
また、どのAIモデルを使うかによって結果が異なることを説明するのも医師の役目だ。例えば、医療向けAIモデルは、信頼できる医学誌や専門家の知識を資料源とした情報を提供できるからだ。
最近、ある患者がAI検索の結果に基づいて「薬の服用方法」を誤って理解していたことがあった。そのAIは、患者が「例外」となる患者固有の臨床的要素があることを考慮していなかったため、私の指示に従わないよう助言していたのだ。
患者がAIのアドバイスについて話題にする際、私は「どんな質問をして、どんな回答を得たのか」を簡単に見せてもらうようにしている。このたったひとつの質問をすることで、信頼関係が築かれ、対立的な場面を協働的な対話に変えることができると感じている。
私は患者と一緒にAIの回答を確認し、そのアドバイスがなぜ危険で、どんな臨床的な文脈が足りなかったのかを話し合った。患者はその説明に感謝し、私にとってもAIモデルの誤った推奨を修正する貴重な機会となった。
患者がAIの提案について率直に話してくれるよう促すことは、「AIに危険だと言われたから」と処方薬をトイレに流してしまうような事態を防ぐ、はるかに良い方法だ。
最終的に私が望むのは、患者が懸念を医師と共有し、AIの医療アドバイスを独断で実行しないことだ。
AI時代の医療を共に考えることで、患者も医師も新しい医療の形においてより強く、主体的になれるはずだ。
▼▼▼
※筆者・カーラ・ボレリ医師は、ニューヨーク市のマウントサイナイアイカーン医科大学で依存症医学の研修を受けた専門医。現在はコネチカット州で、入院患者向けの依存症診療チームに所属し、教育にも携わっており、『Journal of Child and Adolescent Substance Use(児童・青年期物質使用学雑誌)』の共同編集長を務める。
本稿は、執筆した本人の見解を示すものです。
ハフポストUS版の記事を翻訳・編集しました。
Source: HuffPost




