医療分野にChatGPT & AI適応の未来

>100 Views

December 31, 23

スライド概要

現在、医療サービスの高度化、効率化、低コスト化、予防の強化が強く求められている。 ChatGPTはこうした期待に応える可能性が高く、導入の検討が活発に行われている。 さらに、医療現場はマルチモーダルであり、会話によるコミュニケーションだけでなく、MRI写真などの画像も含めて総合的に活用することが望まれている。 そこで本稿では、検討が先行する米国の状況を参考にして、(1) 医療の将来像、(2) 現状を確認するための最先端研究の動向、(3) ChatGPT採用に重要な安全性の問題、(4) 導入を可能にするイノベーションプロセスとビジネスモデルについて概要を報告する。

profile-image

定年まで35年間あるIT企業に勤めていました。その後、大学教員を5年。定年になって、非常勤講師を少々と、ある標準化機関の顧問。そこも定年になって数年前にB-frontier研究所を立ち上げました。この名前で、IT関係の英語論文(経営学的視点のもの)をダウンロードし、その紹介と自分で考えた内容を取り交ぜて情報公開しています。幾つかの学会で学会発表なども。昔、ITバブル崩壊の直前、ダイヤモンド社からIT革命本「デジタル融合市場」を出版したこともあります。こんな経験が今に続く情報発信の原点です。

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

[タイトル] 医療分野にChatGPT&AI適応の未来 高橋 浩 B-frontier研究所 要旨 現在、医療サービスの高度化、効率化、低コスト化、予防の強化が強く求められている。 ChatGPTはこうした 期待に応える可能性が高く、導入の検討が活発に行われている。 さらに、医療現場はマルチモーダルであり、 会話によるコミュニケーションだけでなく、MRI写真などの画像も含めて総合的に活用することが望まれてい る。 そこで本稿では、検討が先行する米国の状況を参考にして、(1) 医療の将来像、(2) 現状を確認するための 最先端研究の動向、(3) ChatGPT採用に重要な安全性の問題、(4) 導入を可能にするイノベーションプロセスと ビジネスモデルについて概要を報告する。 キーワード 医療サービス, ChatGPT, マルチモーダル, イノベーションプロセス 1 はじめに ChatGPTは各所で反復プロセスの自動化,顧客サー ビスの向上などを実現させており,ChatGPTの本格的 活用が各方面にどのような影響を与えるか、また、ど のような未来が描けるか検討することが重要な時期に 来ている.加えて、人間のような会話で人々を引き付 けるChatGPTは言語とコミュニケーションが人間の経 験と幸福に如何に重要であるかを改めて思い起こさせ てくれる. このような文脈を認識し意味のある情報を提供する 機能は、膨大な量の非構造化データから特徴を抽出し 要約するなどの基本機能によって,あらゆる分野で活 用の可能性を生み出している.このような能力を短期 間で獲得するまでのOpenAI社のGPTシリーズの歴史 は稀にみる劇的な機能拡充の歴史であった(図1 Budhwar 2022, Gill 2023). 中でも医療分野は,言語入力に対して人間のように 回答できるChatGPTの機能が幅広く適応可能になる典 型的な分野である.このような認識から,関連論文が 多数登場している(Haque 2023, Qiu 2023, Yuan 2023, Javaid 2023, etc.) 翻って見ると,従来から医療へのAI適用は強く期待 されてきた.背景には,関連データの複雑さやデータ 集積量の増大,適用範囲の幅の広さ,診断や治療への 推奨案提示や支援,医療提供者, 患者,製薬組織等における管理プ ロセスの支援や自動化,患者のケ アに関わる人間的側面への活用な どがある(Haleem 2022). そこで,医療分野へのChatGPT &AI適応と今後の可能性を検討す ることは意義深いと考える.この ような認識の元で,2節では医療に 向けたChatGPTの可能性,3節では 未来ビジョンと先端研究による現 状の確認,4節では倫理事項やイノ ベーション,ビジネスモデルを取 上げ,5節ではデジタル医療のこれ からを述べる.尚,本稿ではAI技 術をChatGPTおよびこれに類する 生成AIに限定する. 図1 ChatGPT登場までに歴史

2.

2 医療に向けたCHATGPTの可能性 2.2 ChatGPTと医療従事者との関係 2.1 医療向けのChatGPT機能 では,どのような環境でChatGPTが活用されるかだ が,AIの位置付けは次のようなことが考えられる. 医療は患者との繋がりが必然であり,最適な治療の 場合には特にそうである.このことを前提にすると, 医療におけるChatGPTの可能性には次のようなことが 考えられる. ・治療計画の順守を強化し,より実践的でアクセスし やすいケア提供を支援する. ・充分サービスを受けられていない地域や地方に住ん でいる患者に対してもChatGPTを使用することで信 頼できる情報支援や知識を提供する. ・患者がChatGPTに質問して回答を得ることで,より 幸福感を高め,人間(医療従事者)によるケア負担の 軽減も実現する,など これらのChatGPTの適応可能性を患者ケア,研究, 教育で分類して表1に示す(Clusmann 2023). 表1 患者ケア,研究,教育分類でのChatGPT機能 ・医療質問応答や医療関係事項の抽出などで(臨床向 けを含め)自然言語入力による各種タスクの改善 ・MRI装置などと連携したAI支援意思決定支援システ ムの実現 ・放射線科のメモを作成するディクテーション装置の 音声認識の改善,など このようなさまざまなデータ間のシームレスな統合 の可能性が見えてきたことから,医療従事者向け機能 と患者向け機能,およびそれら間の適切な連携を想定 した機能例が提案されている(図2:Meskó 2023). このような機能を一体的に実現するには医療関係者 の役割の再構成が必要である.そうすることで効率的 で合理化された医療システムが実現される可能性があ る.そして,AIを活用した意思決定の方がAIを活用 しない場合に比して より正確でタイムリ ーな対応が可能にな り得る. 結果,『AIを使用 している医師(および 医療環境全体)がAIを 使用していない医師 (および医療環境全 体)に取って代わる可 能 性 』 が 生 じ る (Sezgin 2023). AIは洞察を提供, 医師はその知識を活 用して最終的に判断 する.但し,AIの予 測を検証する監視, 潜在的エラーやバイ アスを削減する仕組 みとの最適組み合わ せ構築を慎重に実現 する必要がある. このような利用形 態実現に向けて,ビ ジョンや課題をクロ ーズアップさせるた め,次節では次の3点 を検討する. ・想定される医療の 未来ビジョン ・最先端の研究で見 られる現在の到達点 の確認 ・ 生 成 AI の 進 化 と 規 制の必要性 図2 医療従事者向けと患者向けChatGPT機能と連携

3.

表2 潜在的アプリケーション例 3 CHATGPT適応の分析 3.1 ChatGPTベース医療の未来ビジョン 本節ではChatGPTベース医療の未来ビジョンを考え る(Moor 2023, Clusmann 2023).言語機能を活用した効 果的なコミュニケーションが患者と医療従事者の関係 性,医療サービスの高度化と患者の生活の質の向上に 貢献できるのは明確である.そして,生成AIは個別医 療アプローチにも役立つ(Harahap 2023). 即ち,患者から受け取った入力の複雑性を軽減し, 個々の患者のニーズに合わせて特別に調整された個別 医療サービスを提供できる.これらのことから,人間 の言葉を理解し回答を生成できる機能は次のようなサ ービスへの転換を示唆する. ・アップグレードされた臨床サービス ・カスタマイズされた治療計画 ・患者とのより優れた出会い これを基礎に,ChatGPTベース医療の未来ビジョン を構想する.現在,医療AIモデルの大部分はタスク固 有の開発アプローチを取っている.しかし,これでは 多様な医療サービスの提供に限界がある. そこで,非常に柔軟で各タスク(画像データ,電子 医療記録,検査結果,ゲノミクス,グラフ,医療テキ スト,等)に統一して利用可能なAIを考える.そし て,新たな方向性としてタスク固有のパラダイムを大 胆に克服した未来ビジョンを想定する.この構想はIT 技術者であるMoor(2023)案で,引用件数は多いが,医 学系者からは必ずしも同意を得ていない模様である. この案の実現には最近の新たな動向(マルチモーダ ルアーキテクチャ,明示的ラベル不要の自己教師あり 学習,コンテンツ内学習,など)を全て取込む必要が ある.イメージを図3に示す. 医療の現場は典型的なマルチモーダル環境なので, 望ましいビジョンではあるが,技術的かつ運用上のハ ードルはかなり高い. そこで,この点の状況を確認するため,未来ビジョ ンベース生成AIで重要になると思われる4つの側面を 考える. 1. パラメータ数の増加(例:パラメータ数は数十億 あるいは数千億以上に上る) 2. 大規模データを使用したトレーニング(例:文章 コンテンツベースLLMでは数兆個のデータ,画 像コンテンツベースLLMでは数十億個の画像に よるトレーニングを実施しなければならない) 3. 複数のモダリティのデータの処理 4. 複数の下級タスク(例えば,ゼロショット,ワン ショット,数ショットのタスク)での良好なパフ ォーマンスの実現 この内,GPT-4登場などで,1., 4.(パラメータサイズ の拡大とゼロショット他による学習効果の向上)は進 んでいるので,その他の 2., 3.について情報を補足す る. 2.の補足:研究レベルでは医療向け言語モデル,医療 向け画像モデルが登場してい るが,医療データ規模が一般 向けに比べて圧倒的に小さい (3桁程小さいので問題有). 3.の補足:モデル容量の増加 とマルチモーダル学習の進歩 で,処理できるモダリティの 種類と数は確実に増加してい る(将来の見通し有りそう). 3.2 技術的取組みの先進事例 図3 ChatGPTベース医療の未来ビジョン このような未来ビジョンが達成されれば実現されそ うな潜在的アプリケーションを3つ表2に示す(Moor 2023). 本節では,現在,未来ビジ ョンなどがどの程度適応(実 現)可能性があるのか等を探 索するため,参考になりそう な情報を含む先端研究事例を 紹介する.研究の要点,制限 事項なども確認する.内容は 次の3件とする. ・米国医師免許試験対応(Tu 2023, Singha 2023) ・マルチモーダル(Qiu 2023) ・臨床意思決定支援(Liu, S. 2023, Liu, J. 2023 )

4.

米国医師免許試験対応 ・ 要点: 6個の医療関係質問回答データセット(この中に米国 医師免許試験問題も含む)に健康関係質問回答データ セットを加えたサンプルに対する共通ベンチマークを 作成.この共通ベンチマークにPaLMを最適化して Flan-PaLMを作成した.結果,米国医師免許試験問題 に対してはほどほどの精度を得た(67.6%).しかし, 消費者(患者)からの質問に対して重大なギャップがあ ることが判明した.そこで,これを解決するため新し い調整技術を開発.これによってFlan-PaLMを最適化 したMed-PaLMを作成した.回答水準はかなり向上し たが,依然として臨床医には劣る. 4 人の 放 射線 科 医師 と 比 較し ,246 症 例に 対し て,Med-PaLM M生成結果と医師判断を比較した ところ,ほぼ同等の判断結果であった. 制限事項: ・ ベンチマークMultiMedBenchにはデータ・サイズ などで制限があった.従って最適評価範囲は限 定されており,多様な条件への対応としては不 充分であると自己評価している. ・ 一般用途向けに比べて医療データが定常的に不 足しているので,根本的困難性も抱えている. ・ また,データ量の少ないモダリティが全体パフ ォーマンスのボトルネックになるので,定常的 に実施したいことと,少ないモダリティ・デー タの収集が両立し難いことが判明した. 検討プロセス: ・ GoogleのPaLM(ChatGPT同等品)を出発点として実 施された. 臨床意思決定支援 ・ Flan-PaLM作成時は医療データが不足しているた め,大量データを前提とした既存最適化アプロ ーチだけでは精度が今一つ向上しなかった. ・ そこで,Med-PaLM作成に当たっては医療分野に 特化したプロンプトの最適化を進めた. ・ 例えば,どのような少数ショットのプロンプト が効果が大きいかの確認や思考の連鎖(人間の 思考を疑似して,複数のステップでの推論を強 化)の活用などを行った. ・ Med-PaLMは,医療分野に適合するプロンプト最 適化が功を奏し,かなりの改善が見られた. (頻繁に登場するアラートから) 代表的な7つのア ラートを抽出.これに対する提案を生成するように ChatGPTに依頼し,同じ項目について臨床医にも提案 作成を依頼した.合計してChatGPTから提案36件,臨 床医から提案29件が提示された.それらを独立の5人 の臨床医が提案元を区別せずに次の視点:有用性,受 容性,関連性,理解の容易性,などで分析した.提案 はスコア化され,最もスコアの高い上位20件の内,9 件はChatGPT提案であった.また,ChatGPT提案は独 自の視点を保有しており,例えば,非常に理解し易い などの特徴があった.これは将来の人間とChatGPTと の役割分担を示唆する. 制限事項: ・ ・ 今回の検討では,患者からの質問が充分取込ま れておらず,あらゆる臨床環境への対応として は不充分であると自己評価している. ChatGPT提案と医師提案の比較手法: ・ 場所(バンダービルト大学医療センター)を特定し 電子医療記録(EMR)はEpic Systemsを使用した. 評価した質問回答データセットの数と,それら を評価した臨床医や一般人(患者)の人数も限定的 であった. ・ 抽出した代表的7つのアラートについてChatGPT と医師の双方から受け取った提案を独立した5人 (医師4名+薬剤師1名)で評価した. ・ 評価の仕方は各提案を提案元を除き5段階のアン ケート形式でスコア化して実施した. ・ 評価者は情報学のトレーニングを受け,専門分 野に通暁している医師/薬剤師である. マルチモーダル 要点: 前例の医療質問回答データセットだけでなく,マン モグラフィー,皮膚画像読影,放射線レポート,ゲノ ム変異呼出しなど,14種のタスクを包含した共通ベン チ マ ー ク MultiMedBench を 作 成 し た . 先 述 の MedPaLM を 当 該 ベ ン チ マ ー ク 向 け に 最 適 化 し た MedPaLM Multimodel(略称Med-PaLM M)を作成した.MedPaLM Mによって現実の臨床言語,画像処理,ゲノミ クスなどを解釈した.そして,Med-PaLM Mの限界を 調査するため,Med-PaLM M生成の胸部X線レポート と放射線科医師の同等課題への判断を比較した.結 果,わずかに放射線医師の方が正解率が高いことが確 認された. パフォーマンスの比較手法と結果: ・ 要点: 課題は,胸部X線画像から結核の有無を予測する 問題で,Med-PaLM Mは結核を明示的に予測する ようなトレーニングは行われていない. 制限事項: ・ ChatGPTはプロンプトに敏感なため最適形式での プロンプト実行が試みられていない懸念がある と自己評価している. ・ 評価は意思決定する専門家の観点から行い,必 ずしも患者の臨床処置の最終結果からのフィー ドバックは行われていない. ・ ChatGPTは2021年以降の情報を学習していないの で,その後の医療ガイドラインや医薬品提案を 踏まえていない. 3件は最先端の研究事例である.その状況と未来ビ ジョンが期待する技術水準を比較すると,極めて大き な技術ギャップがあることは確かだが,関連深い技術 項目に果敢に挑戦されている.

5.

3.3 生成AIの進化と規制の必要性 本節では従来AIと大きく異なる点を深堀りする.生 成AIは規模,機能,潜在的影響力の点で,(深層学習 など)従来のAIと明確に異なる.区別される主な特徴 を以下に示す. ◆ 規模と複雑さ:数十億個以上のパラメータを利 用す る ため , 意図 し ない 結果 が 出る こ とが あ り,それに関わる課題も考慮した規制・監視が 必要 ◆ ハードウェア要件:大量の計算リソースが必要 ◆ 幅広い適用性:多用途の機能を備えるため画一 的な規制は不向き ◆ リアルタイム適応:応答をリアルタイムに適応 させられるため,動的動作に対応した規制・監 視が必要 ◆ データのプライバシーとセキュリティ:堅牢な 規制・監督のためのフレームワーク確立が必要 あるので,特定規制当局が世界向けに規制を定め,そ れを各国が反復・修正する形態は現実的でない. 現在,規制の観点から生成AI技術がどの技術カテゴ リーに分類されるのかも現状では明らかでない. 医療対応の規制機関は,生成AI開発関係者が自社製 品は医療目的で使用できる,あるいは医療目的のため に開発したと主張する場合に焦点を当てて規制設計を 行えばよいのか? また,いずれの製品でも医療データと関連データベ ースに基づく特別なトレーニングをしたと主張した 際,それだけで医療向け製品としては認定できないの で,事実性,精度,トラブルの可能性,偏見(バイア ス)などの問題は,どのように審査するのか? 4 関連する課題とビジネスモデル考察 4.1 ChatGPT使用における倫理的考慮事項 そこで,もう少し関連の課題を考える.ChatGPT由 来の幻覚は医療分野に生成AI導入時,致命的影響を与 そこで,これらの特徴を踏ま えた生成AI固有の規制を想定し なければならない.医療分野に GPT-4レベルの製品を本格的に導 入した場合,画像上のテキスト (医師の手書きメモも含めて)を読 み取り,画像の内容とコンテキ ストを組合わせて分析できると も言われる. このような高機能なGPT-4等を 医療分野に適応する場合,当然 倫理的懸念も生じ易くなり厳密 な規制の枠組みが必要になる. 潜在的倫理違反を防ぐには, 原則的には,透明性,説明責 任,公平性などの課題に対処することが重要だとされ ている(Harrer 2023). 具体的には,AIが診察の 意思決定プロセスに関与し ている場合,医療専門家と 患者の間でそれを認識し, 患者はAIの推奨事項などに ついて説明を受ける手続き が必要になるかもしれな い. このような新たな環境に ChatGPT/GPT-4等を使用す るには患者情報の機密性や セキュリティ確保にもより 強力な規制が必要になる. これらのことから,生成AI 規制には次のような課題が ある. メジャーな生成AIは世界 中でリリースされており, 各国の医療環境は個別性が 図4 生成AI規制の枠組み 表3 各規制の内容

6.

える.4つの側面から課題を挙げる. ◆ 法律的課題:患者に危害が生じた場合の責任分 担,データ収集による患者のプライバシー侵害 の懸念 ◆ 人文的課題:AIに過度に依存することで思いや りが損なわれ信頼を失う懸念 ◆ アルゴリズム的課題:検証と評価だけでなく, アルゴリズムバイアス,責任,透明性,説明可 能性に関する懸念 ◆ 情報的課題:データのバイアス,妥当性,有効 性に関する懸念 ChatGPTの医療分野への適用は数多くの利点がある が,一方,潜在的危険を防ぐため,各種の原則順守は 不可欠である.進化するAIの倫理環境を乗り越えるに は,最も厳格な倫理基準順守が必要なので,包括的枠 組みの例を図4,表3に示す(Wang 2023). 4.2 イノベーションダイナミズムとコラボレーション の役割 生成AI導入によるビジネスモデル構築も極めて検討 幅が大きいので,ビジネスモデル革新の観点から見た 生成AIも整理しておく必要がある(Kanbach 2023).こ のような問題意識で,本節では狭義のビジネスモデル (利益獲得)の視点に捕らわれず,生成AI導入前に考 慮すべき次の2点について検討する(Holm 2023). ◆ ◆ 生成AI使用イノベーションではデータが中心的 役割を果たし,データの質量拡大のためにも外 部と の コラ ボ レー シ ョン が重 要 性を 増 す . 但 し,データセキュリティやプライバシーが新た なリスクをもたらし,顧客や競合他社とのデー タ共有もかなりのリスクを伴う. 組織に生成AIを導入すると従業員は従来と異な る能力(幅広い生成AI活用リテラシー,など)が必 要になり,組織の権力構造にも見直し圧力がか かる.発生する課題に対処するため,組織変革 に繋がることが多い. この2つの要因を以下で分析する. データ価値とコラボレーション データと AI は相補的資産であり,AI がイノベーシ ョンプロセスの成果物の場合,データは補完財とな る.そして,キーのデータをプロセスに取込むと,偏 見,倫理,並びに,データの経済的価値,データ共有 などで新たな課題や懸念が生じる.データ共有に関し ても協力する当事者間で異なる目的や伝統を持ってい ることもある. 他方,実行可能なビジネスモデルを成立させるには 協力して十分な量と質のデータを利用可能にできるか どうかが新ビジネス成立の使命を制することも多い. 協力者は自分に欠けている補完的資産へのアクセスに 動機付けられることが多く,価値はパートナーが保有 する専門知識に関わるデータであることが多い. 高品質のデータを大量に使用することで得られる利 点や領域固有のアルゴリズムをトレーニングするため にコラボレーションに取り組む例が多いと言う結論の 研究もある(Holm 2023).生成AI導入環境では実践を 通じて学習し規模を拡大する傾向が強いので,ますま す適正な組織変革がポイントになる. AIと組織変革 生成AIのような新技術が採用されると社内外の組織 のルーチンや構造に課題が生じる.生成AI 使用には 組織全体がイノベーションプロセスに関与する必要が あり,AI 使用による影響は,AI を直接使用している 人々や部門に限定されないと結論づける研究もある (Rane 2023, Holm 2023). 変化はすぐには現れず,生成AI 使用が組織に統合 され,補完的イノベーションが導入されるに連れて明 らかになる.そして,新しいタスク・ポートフォリオ が進化するにつれて,新しい分業が明らかになり,新 しい調整タスクが出現する. このような抜本的な変化に直面した企業は,増加し た情報を最大限に活用できるように,意思決定権をよ り委ねられる分散化した組織に移行することが多い. 変革の水準は極めて高度なので,しばしば組織変革に 取り組む経営陣の意欲が AI 導入の成功の鍵となる. 組織変革の概観 このような分析結果を踏まえ次のようにまとめる. 1. ビジネスモデル成立に必要な充分な量と質のデ ータ収集がコラボレーションの大きな動機とな る. 2. 多様 な 顧客 ニ ーズ に 動的 に対 応 しよ う とす れ ば,データ収集と分析に対処するコラボレーシ ョンはより複雑になる. 3. 生成AI導入においてコラボレーションを構成す るメンバー数は一般に極めて多い. 4. データは顧客のサービス利用によって生成され るので,システムは実践を通じて順次規模を拡 大し学習して行く形態になる. 5. 組織も徐々に変化する構造に如何に対処するか が問われる. 6. 多様な課題が存在することから,責任分担と対 象課題の集中対応のため組織変革は分業に移行 することが多い. 広義のビジネスモデルを考える上での考慮事項 生成AIは潜在的に汎用技術なので,前述の方向性は 医療業界に限らず,全業界で同等である可能性があ る.即ち,『オープン化して多様なコラボレーション を実現する一方,データ起因の多様なリスクを回避し 評価手法や柔軟な対応を容易化するために分散化』で ある.このような構造の中から複雑性を緩和するため 重複プロセスを出来るだけ切り出して自動化する方向 が目指される.そして,システム規模の拡大,データ 収集規模の拡大,自動化範囲の拡大によって,生成AI 技術がイノベーションに与える影響はダイナミックに 変化してゆく.この変化から新たな価値創造と価値獲 得の目標/方向性が明らかになり出すと,そこから新 たなビジネスモデルが展望されるようになる.

7.

5 CHATGPTとデジタル医療のこれから 医療組織に生成 AI 導入の考慮事項: 生成AIによる影響は既存の作業区分や枠組みを超え て範囲が広すぎるので,未来考察の焦点を絞りにくい のは否めない. 1. 全ての医療に関わる関係者(医師,診療所,研究 者,情報システム,運用,管理,患者および地 域関係者,他)が一体となったチームを設立し, 費用対効果が高く,影響力のある協調型 AI ソリ ューションを探索および評価し,人間参加型の アプローチを確立する必要がある. 2. 非効率または低パフォーマンスにつながるタス ク,患者のニーズ,サービスの品質,満足度に 対処するタスクなど,改善と AI コラボレーショ ンの活用が必要な(あるいは効果が期待できる) AI サポートの臨床プロセス ,運用ワークフロ ー,実践事項に優先順位を付ける必要がある. 3. 医師,看護師,管理者,患者などの複数の関係 者グループを参加させて,不可欠な包括的なト レーニング,教育ニーズ,組織文化の変革を特 定し,導入前に効果的なコラボレーショ ンのための AI ツールのテストと教育を 大規模に行う必要がある. 技術的には,現在,LLMの出力が正しいことを保 証するメカニズムは無いので,エラーや誤った情報が 致命的結果をもたらす可能性があり,臨床現場などへ の生成AI技術導入は大幅に制限される. しかし,一方で,生成AIにさまざまな安全ガードレ ールを実装し,医療専門家と生成AIとが連携すること によって生成AIの有効性を実現できる可能性は高く, そのための検討も着実に進捗していることは紹介し た. また,医療アプリとして特別に設計され,医療デー タに基づいてトレーニングされた生成AIアプリも登場 している(図5: Toews 2022). 4. 検 証 , 実 用 性 , 導 入 に 焦 点 を 当 て た,AI の厳格な評価方法と評価フレーム ワークを確立する必要がある. 5. 組織のポリシーとプロトコルを改訂 して 生成AI の導入を促進し,倫理的お よび法的懸念に対処し,コンプライアン ス,プライバシー,セキュリティを確保 し,組織の信頼,アクセス,ガバナンス を構築するための戦略を立案する必要が 図5 市場に登場した生成AIベース医療アプリの例 これらは医療用にターゲットを絞りトレーニングデ ータも適切に選別していると想定されるので,一般に 懸念される幻覚のリスクもかなり回避しているかもし れない. いずれにしろ,デジタル医療の今後は,GPT-4登場 にも見られるように,生成AI技術は前例のない速度で 進化しており,この急速な進化は生成AIがテキストや 画像などの処理において人間の能力を遥かに超える未 来を明確に示唆している. これは規制当局(あるいは規制に関わる全ての関係 者)に対して迅速に行動すべきとの圧力を強めてい る.このような傾向への適切な対応が促進されれば, 医療分野において生成AIは医療進化の原動力になり得 る. 但し,そのためには,医療分野に生成AIが本格的に 導入され既存システムと統合され受け入れられる前 に,厳格な倫理面での審査を受ける必要がある.堅牢 な倫理的枠組みを確立することで,個人(患者)の幸 福を守りながら生成AIの可能性を活用出来る.このよ うな条件を充足するためには関係各部門の多方面に渡 る準備と努力が必要になる. 全体としては,このような方向に向けて未来を形作 る活動が促進されることが期待される.最後に医療組 織に生成 AI 導入時の考慮事項を示し締め括りとす る. ある. 6. 倫理的,包括的,公平,責任ある,公正な 生成 AI 実践に取り組む.そのために,医療機関間の デジタル格差を減らすことにも重点を置く必要 がある. 6 参考文献 Budhwar, P., et al. (2022). Human resource management in the age of generative artificial intelligence: Perspectives and research directions on ChatGPT. Human Resource Management Journal 33 (3), 606-659. Clusmann, J., et al. (2023). The future landscape of large language models in medicine”, Communications Medicine 3 (1), 1413. Gill, S. S. et al. (2023). ChatGPT: Vision and Challenges. Internet of Things and Cyber-Physical Systems 3, 262-271, Haleem, A., et al. (2022). An era of ChatGPT as a significant futuristic support tool: A study on features, abilities, and challenges. Bench Council Transactions on Benchmarks, Standards and Evaluations 2 (4), 100089. Haque, A., et al. (2023). The Future of Medicine: Large Language Models Redefining Healthcare Dynamics. TechRxiv. Harahap, M., et al. (2023). Use of ChatGPT in Building Personalization in Business Services. Journal Minfo Polgan 12 (1), 1212-1219, Harrer, S. (2023). Attention is not all you need: the complicated case of ethically using large language models in healthcare and medicine. E BioMedicine, Vol 90. Holm, J.R. et al. (2023). Innovation dynamics in the age of artificial intelligence: introduction to the special issue. Industry and Innovation 30 (9), 1141-1155. Javaid, M., et al. (2023). ChatGPT for healthcare services: An emerging stage for an innovative perspective. BenchCouncil Transactions on Benchmarks, Standards and Evaluations 3 (1), 100105.

8.

Kanbach, D.K. et al. (2023). The GenAI is out of the bottle: generative artificial intelligence from a business model innovation perspective. Review of Managerial Science, 1-32. Liu, J., et al. (2023). Utility of ChatGPT in Clinical Practice. Journal of Medical Internet Research 25, e48568. Liu, S., et al. (2023). Using AI-generated suggestions from ChatGPT to optimize clinical decision support. Journal of the American Medical Informatics Association, 30(7), 1237-1245. Meskó, B., et al. (2023). The imperative for regulatory oversight of large language models (or generative AI) in healthcare. npj Digital Medicine 6(1), 120. Moor, M., et al. (2023). Foundation models for generalist medical artificial intelligence. Nature 616 (7956), 259-265. Qiu, J., et al. (2023). Large AI Models in Health Informatics: Applications, Challenges, and the Future. IEEE Journal of Biomedical and Health Informatics. Rane, N.L. (2023). Multidisciplinary collaboration: key players in successful implementation of ChatGPT and similar generative artificial intelligence in manufacturing, finance, retail, transportation, and construction industry. OSF Preprints October 17. Sezgin, E., (2023). Artificial intelligence in healthcare: Complementing, not replacing, doctors and healthcare providers. Digital Health Vol.9, 1–5. Singha, K., et al. (2023). Large Language Models Encode Clinical Knowledge. Nature 620 (7972), 172-180. Toews, R., (2022). A Wave of Billion-Dollar Language AI Startups Is Coming. Forbes 2022/3/27.Tu, T., et al. (2023). Towards Generalist Biomedical AI. arXiv: 2307.14334. Wang, C., et al. (2023). Ethical Considerations of Using ChatGPT in Health Care. Journal of Medical Internet Research 25, e48009. Yuan, M., et al. (2023). Large Language Models Illuminate a Progressive Pathway to Artificial Healthcare Assistant: A Review. arXiv: 2311.01918.