医療AIにおける合成データの活用と倫理課題|各国の対応と日本への示唆
医療分野における人工知能(AI)の活用は様々な領域で進んでいますが、患者データにアクセスする際には倫理的な問題が付いてきます。通常、ヒトデータを用いた研究においては、倫理委員会が研究が参加者の権利、安全、尊厳、そして幸福にどのような影響を与えるかを審査しなければなりません。
この記事ではカナダ、アメリカ、イタリアの一部の医療研究機関では、AIが生成した合成データ(synthetic data)を倫理委員会の許可なしに実験利用していることを報告しています。合成データは、実際の患者情報をAIに学習させ、個人情報を含まない統計的に類似したデータセットを生成するというものです。
ワシントン大学医学部は、2020年から合成データ利用の研究に対する倫理審査を免除しています。これは合成データセットには実際の患者情報や追跡可能な患者情報が一切含まれていないため、人を対象とする研究の倫理基準を規定する1991年の米国連邦共通規則では「ヒトを対象とする研究」とはみなされないとの判断によるものです。
イタリアのIRCCS Humanitas Research Hospitalも同様に、特定の条件下で倫理審査を省略できるとしています。カナダでは、オンタリオ州の個人健康情報保護法に基づき、個人を特定できない情報の作成には患者の同意が不要と解釈されています。合成データの使用による潜在的なメリットとして、患者のプライバシー保護、施設間でのデータ共有の容易化、研究のスピードアップなどが挙げられます
一方で英国では、医薬品・医療製品規制庁が合成データセットの生成を承認していますが、倫理、合法性、機密性、同意、データ保護の義務を考慮する必要があるとしており、国によって判断が異なります。
匿名性の定義が国によって異なり、国際的なデータ共有が妨げられる可能性もあります。今後、日本においても合成データの取り扱いに関する明確な判断基準を策定し、倫理的な懸念を払拭しつつ、AI技術の発展を促進するための環境整備が求められます。特に、データの品質、AIモデルのバイアス、プライバシー保護のバランスを考慮した上で、ガイドラインや規制を設けることが重要です。

参考情報
AI-generated medical data can sidestep usual ethics review, universities say
Representatives of four medical research centres have told Nature they have waived normal ethical review because ‘synthetic’ data do not contain real or traceable patient information.
By Andy Extance
https://doi.org/10.1038/d41586-025-02911-1