人工知能(AI)言語モデルを用いたチャットサービス『ChatGPT』は、米国の医師免許試験において医学部3年生に匹敵する成績を収めるなど、注目を集めている。そこで、抗菌薬への耐性や微生物の生態、臨床情報を複合的に判断する必要のある感染症への対応について、8つの状況に関する質問をChatGPTへ投げかけ、得られる助言の適切性、一貫性、患者の安全性について評価した。その結果、ChatGPTは質問の状況を理解し、免責事項(感染症専門医へ相談することを推奨)も含めて一貫した回答を提供していたが、状況が複雑な場合や重要な情報が明確に提供されていない場合には、危険なアドバイスをすることもあった。本研究は英国・リバプール大学のAlex Howard氏らによって実施され、Lancet infectious diseases誌オンライン版2023年2月20日号のCORRESPONDENCEに掲載された。
臨床医がChatGPTに助言を求めるという設定で、以下の8つの状況に関する質問を投げかけた。
・第1選択薬で効果不十分な蜂窩織炎
・腹腔内膿瘍に対する抗菌薬による治療期間
・カルバペネマーゼ産生菌に感染した患者の発熱性好中球減少症
・複数の薬剤が禁忌の患者における原因不明の感染症
・院内肺炎に対する経口抗菌薬のステップダウン
・カンジダ血症の患者の次の管理ステップ
・中心静脈カテーテル関連血流感染症の管理方法
・重症急性膵炎の患者に対する抗菌薬の使用
主な結果は以下のとおり。
・ChatGPTによる回答は、スペルや文法に一貫性があり、意味も明確であった。
・抗菌スペクトルとレジメンは適切であり、臨床反応の意味を理解していた。
・血液培養の汚染などの問題点を認識していた。
・基本的な抗菌薬スチュワードシップ(細菌感染の証拠がある場合のみ抗菌薬を使用するなど)が盛り込まれていた。
・治療期間については、一般的な治療期間は適切であったが、治療期間の延長の根拠とされる引用が誤っていたり、無視されたりするなど、ばらつきがみられた。
・抗菌薬の禁忌を認識していなかったり(Tazocin[本邦販売中止]とピペラシリン/タゾバクタムを同一薬と認識せずに重度のペニシリンアレルギー患者に提案する、カルバペネム系抗菌薬とバルプロ酸ナトリウムの相互作用を認識していなかったなど)、患者の安全性に関する情報を見落としたりするなど、危険なアドバイスが繰り返されることがあった。
本論文の著者らは、ChatGPTを臨床導入するための最大の障壁は、状況認識、推論、一貫性にあると結論付けた。これらの欠点が患者の安全を脅かす可能性があるため、AIが満たすべき基準のチェックリストの作成を進めているとのことである。また、英国・リバプール大学のプレスリリースにおいて、Alex Howard氏は「薬剤耐性菌の増加が世界の大きな脅威となっているが、AIによって正確かつ安全な助言が得られるようになれば、患者ケアに革命を起こす可能性がある」とも述べた1)。
(ケアネット 佐藤 亮)