医療分野にジェネレーティブAIが登場し、賛否両論

画像、テキスト、音声、動画などを生成および分析できるジェネレーティブAIが、ビッグテック企業とスタートアップの両方によって推進され、ますます医療分野に進出しています。

Googleのクラウドサービス部門であるGoogle Cloudは、ピッツバーグに拠点を置く非営利医療会社であるHighmark Healthと協力し、患者の受付体験を個人化するためのジェネレーティブAIツールを開発しています。AmazonのAWS部門は、医療データベースを解析するためにジェネレーティブAIを使用する方法について、非公開の顧客と協力していると述べています。また、Microsoft Azureは、非営利医療ネットワークであるProvidence向けに、患者から送られたメッセージを自動的にケアプロバイダーに転送するジェネレーティブAIシステムの構築を支援しています。

医療分野におけるジェネレーティブAIの注目すべきスタートアップには、クリニシャン向けのジェネレーティブAIアプリを開発しているAmbience Healthcare、医療従事者向けの環境AIアシスタントであるNabla、医療文書のための分析ツールを作成しているAbridgeなどがあります。

医療分野へのジェネレーティブAIへの投資は、今日までにベンチャーキャピタルから何千万ドルもの資金を調達しており、ほとんどの医療投資家が、ジェネレーティブAIが彼らの投資戦略に大きな影響を与えていると述べています。

しかし、プロフェッショナルや患者の間では、医療に焦点を当てたジェネレーティブAIが今すぐに使える準備ができているかどうかは賛否両論です。

ジェネレーティブAIは人々が求めるものとは異なるかもしれません

最近のDeloitteの調査によると、米国の消費者の約半数(53%)しかが、ジェネレーティブAIが医療を改善できると考えていないと述べていました。たとえば、アクセスしやすくしたり、予約待ち時間を短縮したりすることができると期待されているが、ジェネレーティブAIによって医療費が安くなると考えている人は半数未満でした。

米国退役軍人庁最大の医療システムであるVAサンシャインヘルスケアネットワークの最高AI責任者であるアンドリュー・ボルコウスキー氏は、この懐疑論は無根でないと考えています。ボルコウスキー氏は、ジェネレーティブAIの展開が早まる可能性があると警告し、その限界や有効性に関する懸念を指摘しました。

いくつかの研究は、これらの点に裏付けがあると示唆しています。

JAMA Pediatrics誌の論文によると、OpenAIのジェネレーティブAIチャットボットであるChatGPTは、小児疾患の診断で83%の誤りを犯しているという結果が出ています。ボストンのベス・イスラエル・ディーコネス医療センターの医師たちがOpenAIのGPT-4を診断アシスタントとしてテストした結果、モデルが3回に2回間違った診断を上位にランク付けしていました。

現在のジェネレーティブAIは、クリニシャンの日常業務の一環である医療管理のタスクにも苦労しています。MedAlignベンチマークでは、GPT-4はケースの35%で失敗しています。

ジェネレーティブAIベンダーの多くは、医療アドバイスに依存しないように警告していますが、ボルコウスキー氏や他の専門家は、より多くのことができると述べています。

University of Duisburg-EssenのAI in Medicine研究所でAIガイドされたセラピーを率いるヤン・エガー氏は、現在の医療分野でジェネレーティブAIを安全に使用する唯一の方法は、医師の綿密な監視の下で行うことだと考えています。

ジェネレーティブAIがステレオタイプを固定化させることに特に有害な方法の1つは、ステレオタイプを増幅することです。

スタンフォード医学部の2023年の研究では、ChatGPTや他のジェネレーティブAIパワードのチャットボットを、腎機能、肺機能、皮膚厚などに関する質問でテストしました。ChatGPTの回答は頻繁に間違っているだけでなく、答えには、黒人と白人の間に生物学的な違いがあるという長い間観察されている間違った信念を補強するものも含まれていました。これらの誤った情報は医療提供者が健康問題の誤診断をする原因となっています。

ジェネレーティブAIが医療分野で差別される可能性が最も高い患者は、実際にそれを利用する可能性が最も高い患者です。

医療保険を持たない人々、つまりKFFの調査によると、大部分が有色人種である人々は、医師や精神保健サポートを見つけることなどのために、ジェネレーティブAIを試すことにより積極的であることがDeloitteの調査で示されています。もしAIの提案が偏見に満ちていた場合、それは治療の不平等を悪化させる可能性があります。

一部の専門家は、この点においてジェネレーティブAIが改善していると主張しています。

2023年末に公開されたマイクロソフトの研究では、GPT-4を使用して、4つのチャレンジングな医療ベンチマークで90.2%の精度を達成したと述べています。バニラのGPT-4はこのスコアに達しなかった。ただし、リサーチャーたちは、プロンプトエンジニアリング(GPT-4に特定の出力を生成するためのプロンプトの設計)を通じて、モデルのスコアを最大16.2パーセントポイント向上させることができたと述べています(マイクロソフトはOpenAIへの主要投資家であるということを付記しておきます)。

チャットボットを超えて

質問をチャットボットに尋ねることだけがジェネレーティブAIの得意とすることではありません。一部の研究者は、医用画像診断がジェネレーティブAIの力を大いに活用できると言っています。

7月に、科学者のグループがNatureに発表した研究で、クリニカルワークフローへのジェネレーティブAIの利用タイミングを専門家が伝統的な技術に頼るべきかどうかを判断するシステムであるCoDoCを発表しました。共同研究者によると、CoDoCは、専門家よりも優れた成績を修し、臨床業務を66%削減しました。

11月には、中国の研究チームが、X線で潜在的な膵臓レーションを検出するために使用されるAIモデルであるPandaをデモしました。このレーションは、手術介入に遅すぎることが多いもので、Pandaはこれらのレーションを高度に正確に分類することが示されました。

実際、オックスフォード大学の臨床研究フェローであるアルン・ティルナバカラス氏は、「ジェネレーティブAI技術には何もユニークなものはなく、短期および中期に、例えば、テキストの修正、ノートおよび書類の自動ドキュメント化、電子患者記録の最適化のための改善された検索機能が含まれます」と述べています。

「厳密な科学」

ジェネレーティブAIは医療の特定の狭い領域において有望である一方、ボルコウスキー氏のような専門家は、ジェネレーティブAIが包括的な医療支援ツールとして有用であり、信頼されるようになるために乗り越えなければならない技術的およびコンプライアンスの障壁を指摘しています。

「ジェネレーティブAIを医療に使用する際には、プライバシーとセキュリティに関する重大な懸念があります」とボルコウスキー氏は述べています。医療データの敏感性と患者の機密性や医療システムへの信頼に対する濫用や不正アクセスの可能性が重大なリスクをもたらします。さらに、ジェネレーティブAIの医療分野での利用に関する規制および法的環境は依然として進化中であり、責任、データ保護、非人間エンティティによる医療実践に関する疑問が解決される必要があります」と述べています。

ジェネレーティブAIを医療分野で使うことが一般的であり、信頼されるようになる前に乗り越えなければならない技術的およびコンプライアンスの障壁をボルコウスキー氏は指摘しています。

「厳密な科学を通じて、患者に直接対応するツールには、臨床上のメリットを実証するプラグマティックな無作為化対照試験が必要です」とティルナバカラス氏は述べています。「今後進んでいくうえで、行動の関与を促すために、ジェネレーティブAIの監査、透明性、独立第三者による影響評価を導入することが重要です。」

最近、世界保健機関は、ジェネレーティブAIを医療分野での科学と人間の監督、および独立した第三者によるジェネレーティブAIの査察、透明性、影響評価の導入を主張するガイドラインを発表しました。 WHOのガイドラインによれば、ジェネレーティブAIを医療分野で開発する際に多様な人々が参加し、プロセス全体で懸念を表明し、意見を提供する機会を提供することで、ジェネレーティブAIの開発に関する参加を奨励することが目的であると明記されています。

「懸念が十分に解決され、適切な保護措置が整備されるまで」とボルコウスキー氏は述べています。「ジェネレーティブAIの広範な医療への実施は...潜在的に患者や医療業界全体にとって有害である可能性があります。」