Back to list
オランダ語臨床ノートにおける差分プライバシーベースの匿名化:比較評価
Differentially Private De-identification of Dutch Clinical Notes: A Comparative Evaluation
Translated: 2026/4/24 20:26:39
Japanese Translation
論文:arXiv:2604.21421v1
発表種別:Cross
要旨:
臨床ナラティブにおける患者プライバシーの保護は、GDPR や HIPAA などの規制下で医療データの二次利用を可能にするために不可欠である。手動による匿名化はゴールドスタンダードであるにもかかわらず、コストが高く時間がかかっているため、差分プライバシー(differential privacy / DP)の保証と高い実用性を両立する自動化された手法の必要性が生じている。ほとんどの自動化されたテキスト匿名化パイプラインは、保護対象のエンティティを特定して消去するために名詞認識(named entity recognition / NER)を採用している。差分プライバシー(DP)に基づく手法は形式上のプライバシー保証を提供する一方で、近年では臨床分野のテキスト匿名化において、大規模言語モデル(large language models / LLMs)も徐々に使用されつつある。本稿では、オランダ語臨床テキストの匿名化における DP、NER、LLM の第一次比較研究を提示する。これらの手法を個別に、そして DP に先立って NER または LLM のプレプロセッシングを適用するハイブリッド戦略を含め、プライバシーリークと外部評価(エンティティ分類と関係分類)における性能を評価する。DP メカニズム単独は実用性を著しく低下させるが、言語学的プレプロセッシング、特に LLM ベースの消去と組み合わせることで、プライバシーと実用性のトレードオフを大幅に改善することが示された。
Original Content
arXiv:2604.21421v1 Announce Type: cross
Abstract: Protecting patient privacy in clinical narratives is essential for enabling secondary use of healthcare data under regulations such as GDPR and HIPAA. While manual de-identification remains the gold standard, it is costly and slow, motivating the need for automated methods that combine privacy guarantees with high utility. Most automated text de-identification pipelines employed named entity recognition (NER) to identify protected entities for redaction. Although methods based on differential privacy (DP) provide formal privacy guarantees, more recently also large language models (LLMs) are increasingly used for text de-identification in the clinical domain. In this work, we present the first comparative study of DP, NER, and LLMs for Dutch clinical text de-identification. We investigate these methods separately as well as hybrid strategies that apply NER or LLM preprocessing prior to DP, and assess performance in terms of privacy leakage and extrinsic evaluation (entity and relation classification). We show that DP mechanisms alone degrade utility substantially, but combining them with linguistic preprocessing, especially LLM-based redaction, significantly improves the privacy-utility trade-off.