Back to list
CausalTAD: Large Language Model への因果知見の注入によるテーブルデータの異常検出
CausalTAD: Injecting Causal Knowledge into Large Language Models for Tabular Anomaly Detection
Translated: 2026/3/15 14:48:10
Japanese Translation
arXiv:2602.07798v1 Announce Type: new
要約:テーブルデータの異常検出は、クレジットカード詐欺検出など多くの現実世界のアプリケーションにとって不可欠です。Large Language Models(LLMs)の急速な進歩により、テーブルデータの異常検出における最先端のパフォーマンスは、テーブルデータをテキストに変換して LLM 进行微调(fine-tuning)によって達成されています。しかし、これらの方法は列をランダムに並び替えることで変換を行う際、異常を検出する上で極めて重要である列間の因果関係に配慮しておりません。本稿では、テーブルデータの異常検出のために LLM へ因果知見を注入する CausalTAD という手法を提案します。私たちはまず、列間の因果関係を特定し、これらが因果関係に沿った状態になるように並べ替えます。この並び替えは線形順序化問題としてモデル化できます。各列は因果関係への寄与度が異なるため、この効果を高めるために、異なる列に対して異なる重みを与える再重み付け戦略も提案します。30 以上の日付セットに対する実験では、我々の手法が既存の最先端手法を一貫して優越することを示しています。CausalTAD のコードは https://github.com/350234/CausalTAD で利用可能です。
Original Content
arXiv:2602.07798v1 Announce Type: new
Abstract: Detecting anomalies in tabular data is critical for many real-world applications, such as credit card fraud detection. With the rapid advancements in large language models (LLMs), state-of-the-art performance in tabular anomaly detection has been achieved by converting tabular data into text and fine-tuning LLMs. However, these methods randomly order columns during conversion, without considering the causal relationships between them, which is crucial for accurately detecting anomalies. In this paper, we present CausalTaD, a method that injects causal knowledge into LLMs for tabular anomaly detection. We first identify the causal relationships between columns and reorder them to align with these causal relationships. This reordering can be modeled as a linear ordering problem. Since each column contributes differently to the causal relationships, we further propose a reweighting strategy to assign different weights to different columns to enhance this effect. Experiments across more than 30 datasets demonstrate that our method consistently outperforms the current state-of-the-art methods. The code for CausalTAD is available at https://github.com/350234/CausalTAD.