Back to list
arxiv_cs_lg 2026年4月24日

機械的忘却の検証は脆弱である

Verification of Machine Unlearning is Fragile

Translated: 2026/4/24 20:07:13
machine-unlearningprivacyverificationadversarial-attackmachine-learning

Japanese Translation

arXiv:2408.00929v2 発表 タイプ: 代替 要旨:機械学習におけるプライバシー関心事の高まりにより、データ所有者は最近の立法に基づき、機械的忘却を用いて自身のデータを機械学習モデルから削除する選択肢を得ました。機械的忘却の透明性を高め、モデル提供者による潜在的な不誠実を避けるために、様々な検証戦略が提案されています。これらの戦略は、データ所有者が自分のターゲットデータがモデルから効果的に忘却されたか確認可能にするものです。しかし、我々の機械的忘却検証の安全性に関する理解はまだ幼い段階にあります。この論文では、モデル提供者が検証戦略を回避しつつ、 supposedly 忘却された情報のみを保持できるかという新しい研究課題を探求します。当社の調査は、悲観的な回答に導きました:機械的忘却の検証は脆弱です。具体的には、我々はモデル提供者による不誠実を想定した既存の検証戦略を2つのタイプに分類し、次いでそれら2つのタイプを回避可能な2つの新しい攻撃的忘却プロセスを導入しました。我々は、実世界データセットを用いた理論的分析と経験的実験を通じて我々の手法の有效性を検証しました。本研究は、機械的忘却検証における脆弱性と限界を指摘し、機械的忘却の安全性に関するさらなる研究を道開きとしています。

Original Content

arXiv:2408.00929v2 Announce Type: replace Abstract: As privacy concerns escalate in the realm of machine learning, data owners now have the option to utilize machine unlearning to remove their data from machine learning models, following recent legislation. To enhance transparency in machine unlearning and avoid potential dishonesty by model providers, various verification strategies have been proposed. These strategies enable data owners to ascertain whether their target data has been effectively unlearned from the model. However, our understanding of the safety issues of machine unlearning verification remains nascent. In this paper, we explore the novel research question of whether model providers can circumvent verification strategies while retaining the information of data supposedly unlearned. Our investigation leads to a pessimistic answer: \textit{the verification of machine unlearning is fragile}. Specifically, we categorize the current verification strategies regarding potential dishonesty among model providers into two types. Subsequently, we introduce two novel adversarial unlearning processes capable of circumventing both types. We validate the efficacy of our methods through theoretical analysis and empirical experiments using real-world datasets. This study highlights the vulnerabilities and limitations in machine unlearning verification, paving the way for further research into the safety of machine unlearning.