最新記事一覧

Vol.23200 現場からの医療改革推進協議会第十八回シンポジウム 抄録から(5)

医療ガバナンス学会 (2023年11月9日 06:00)


■ 関連タグ

*このシンポジウムの聴講をご希望の場合は事前申し込みが必要です。
下記、URLからお申込みください。
( https://genbasympo18.stores.jp/ )

2023年11月9日 MRIC by 医療ガバナンス学会 発行  http://medg.jp

現場からの医療改革推進協議会第十八回シンポジウム

11月25日(土)

【Session 07】
生成AIと医療  17:00~18:15 (司会:鈴木 寛)

●谷本哲也
(医療法人社団鉄医会ナビタスクリニック理事長、社会福祉法人尚徳福祉会理事)

生成AIと医療:臨床現場の視点から

患者と医師の関係の基盤には、自然言語を介したコミュニケーションの構築がある。この大前提を揺るがしたのが2022年11月30日、生成AIの一般公開だった。人にだけ与えられていたはずの役割を担える機械が、一般社会に初めて登場した。これを「歴史的な日」と呼ぶ専門家もいる。
私自身は同年12月、ネイチャーなどの科学誌を毎週チェックする中で、ChatGPTの記事の盛り上がりから初めて生成AIの存在を知った。試しに使ってみたGPT-3.5の能力に驚愕した。回答にはハルシネーションと呼ばれる出鱈目も多いが、どんなテーマでも「シェイクスピアのソネット形式で直ちに出力する」「大学院卒レベル以上の語彙力・表現力で瞬時に自動翻訳する」「物語のプロットを提案し村上春樹風・ヘミングウェイ風などの書き振りの調整もこなす」など、その言語能力と処理スピードは革命的と感じた。興奮冷めやらぬ2023年3月には、バージョンアップされたGPT-4も公開となり、その早さにもまた驚かされた。今のところ、主に論文執筆等の補助や海外とのメールのやり取りの際の自動翻訳として使っているが、この新技術が実際の臨床現場で、医療の質や効率性の向上の鍵を握る日も遠くはないだろう。
2023年9月末、PubMedでChatGPTと検索すると、2022年の論文数は4件、2023年は1,336件と急激に伸び、「医師国家試験などに合格レベルに達した」「医師より丁寧な回答を出す」などの研究成果が続々と発表されている。
生成AIの医療応用のメリットとして以下の点が挙げられる(supported by ChatGPT-4)。① 診断精度の向上:AIの導入により、従来の人間の目では認識困難だった疾患の早期発見や傾向の予測が可能になる。② 医療現場の負担軽減:大量のデータの迅速な解析により、医師の診断や治療の助けとなり、日常業務の効率化が期待される。③ 人手不足解消:AIの支援により、特に人手が足りない地域や診療科での業務量の軽減が見込まれる。④ 診断ミスの防止:AIの分析能力により、医師の過労に起因する診断ミスを減少させることが期待される。⑤ 効率的な医療サービス: AI技術の活用により、患者一人ひとりに合わせた個別化医療が実現し、高品質で効率的な医療サービスの提供が可能となる。
実臨床に応用するには個人情報保護やハルシネーションに課題はあるが、医師の能力を底上げする技術として生成AIの普及に期待している。
●松尾剛行
(桃尾・松尾・難波法律事務所パートナー弁護士[第一東京弁護士会]、慶應義塾大学特任准教授)

医療分野において生成AIを用いる際の法律上の留意点

医療においては従来よりAI・ロボットが利用されてきた。例として、AI画像診断支援システム(松尾剛行「健康医療分野におけるAIの民刑事責任に関する検討−AI 画像診断(支援)システムを中心に−」※1参照)や、医療用ロボット(松尾剛行「医療分野におけるAI及びロボットに関する民刑事責任 : 手術用ロボットを利用した手術における医療過誤の事案を念頭に 」※2参照)等が挙げられる。こうした中、ChatGPT等の生成AIを医療分野に利用することが着目されている。その場合において法律の観点からどのような点に留意が必要であろうか。
まず、医療におけるAIの利用全般については、2018年の厚生労働省通達が重要である。「人工知能(AI)を用いた診断、治療等の支援を行うプログラムの利用と医師法第17条の規定との関係について」(医政医発1219第1号平成30年12月19日)では、「人工知能(AI)を用いた診断・治療支援を行うプログラムを利用して診療を行う場合についても、診断、治療等を行う主体は医師であり、医師はその最終的な判断の責任を負うこととなり、当該診療は医師法(昭和23年法律第201号)第17条の医業として行われるものである」とした。要するに、AIを医師支援に利用すること自体は可能であるが、AIに「お任せ」することはできず、あくまでも医師が主体となり、医師の責任でAIを利用しなければならない、ということである。生成AIにおいてもその点に変わりはない。
生成AI利用の民事責任および刑事責任については、基本的には過失責任が適用される。つまり、利用する医師等に(故意・)過失がある場合のみ不法行為(民法709条)、債務不履行(民法415条)、業務上過失致傷(刑法211条)等の責任が発生する。過失の判断においては、当該生成AIの特性を踏まえて利用上注意すべきことを尽くしたかという観点が重要となる。注意の基準の明確化のため、医療生成AIに特化したガイドライン等が公表されることが望ましい。
生成AI利用と行政法としては、例えば生成AIで診療録を作成することが医師法24条1項に違反しないか等が問題となり得るが、医師が実質的に確認・検証している限りでただちに違法とはならないと考える(私見)。
加えて、プライバシー・個人情報保護等の問題も生じ得るだろう。

※1:https://www.lawandpractice.net/app/download/9076032076/13-7.pdf?t=1602141751

※2:https://www.lawandpractice.net/app/download/8922561376/12_4.pdf?t=1571381456
●宮野悟
(東京医科歯科大学M&Dデータ科学センター特任教授・センター長)

ICTが拓くヘルスケアの未来

医療に関する多くのデータは、デジタル化されています。病院のデータも同様です。ほとんどの人は、Society 5.0 が私たちの医療にも到来すると信じています。しかしながら、「ヒトの健康データ」の特殊性が、特にその変革において大きな障害となっていると言っても過言ではありません。日本には個人情報保護法があり、EUではGDPRがあります。
EUでは2022年5月、European Health Data Space(EHDS)設立文にその具体的な内容が公表されました。注目点は、健康データの利活用による国民の利益の拡大という視点、GDPRだけでなく、データカバナンス法やデータ法、それからNIS指令まで併記していることです。EHDSはEUの医療を大きく変える可能性があります。
一方、日本におけるもっと原始的な問題は、大学病院がデータのゴミ屋敷になっていることでしょう。診療科と診療科の壁は高く、どの診療科が主体となって論文を書くかなどの一般人には無関係な世界がそこにあります。ちょうど明治維新前の幕藩体制に類似しています。各診療科の長はお殿様で、藩同士は協力し合うことはありません。データサイエンスはそこに現れた黒船のようなものです。私たちはビッグデータを利活用し、患者さんに直ちに還元できる社会の登場を目論んでいます。そして医学部や大学病院の旧弊を改めて、組織横断的に、さらには全日本にわたってデータ活用に向けて動かなければならないと考えています。
臨床情報の利活用と社会還元は、Mayo Clinic Platformをはじめ急速に進展しています。東京医科歯科大学もささやかな挑戦をしています。その一旦をご紹介します。ヘルスケアにおけるICT DXイノベーションはどのように起こるのか? 今後、その様子をみていきたいと思っています。
●松尾豊
(東京大学大学院 工学系研究科・教授)
【1日目締めのご挨拶】 18:15 ~ 18:25

●土屋 了介
(公益財団法人ときわ会顧問、株式会社エムティーアイ社外取締役)

MRIC Global

お知らせ

 配信をご希望の方はこちらのフォームに必要事項を記入して登録してください。

 MRICでは配信するメールマガジンへの医療に関わる記事の投稿を歓迎しております。
 投稿をご検討の方は「お問い合わせ」よりご連絡をお願いします。

関連タグ

月別アーカイブ

▲ページトップへ