検索
連載

医療における生成AI――責任ある展開をどのようにサポートするかGartner Insights Pickup(329)

医療業界では、生成AIへの関心が急速に高まり、導入も急ピッチで進んでいる。だが、規制が追い付いていないため、医療機関がガードレールを設け、生成AIが責任ある方法で使われるようにすることが重要だ。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

ガートナーの米国本社発のオフィシャルサイト「Insights」などのグローバルコンテンツから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。

 医療業界では、生成AIへの関心が急速に高まり、導入も急ピッチで進んでいる。大規模言語モデル(LLM)に基づく「ChatGPT」のような生成AIが、患者エンゲージメントや医療研究、臨床医の体験、ワークフローの最適化などの分野に変革をもたらせることが主な要因だ。

 一般的に、医療へのAIの応用は、患者ケアと臨床結果に重大な影響を及ぼす。そのため、安全性や有効性、公平性、ユーザビリティに関する高い基準を満たさなければならない。生成AIの観点から見ると、主にプライバシー、バイアス(偏り)、正確さ、説明可能性、最新性に起因する大きな制約やリスクがある。

 だが、規制が追い付いていないため、医療機関がガードレールを設け、生成AIが責任ある方法で使われるようにすることが重要だ。責任ある方法で開発、使われるAI(以下、責任あるAI)により、AIは社会やAI自体に対する脅威ではなく、前向きな力になる。責任あるAIは、AIを導入する際にビジネス上および倫理上の適切な選択をするために考慮すべきさまざまな側面をカバーする。これらの側面には、ビジネス価値や社会的価値、リスク、信頼、透明性、説明責任などがあり、組織は多くの場合、これらについてそれぞれが独自に取り組んでいる。

価値を生む可能性

Copyright © ITmedia, Inc. All Rights Reserved.

[an error occurred while processing this directive]
ページトップに戻る