Back to list
arxiv_cs_ai 2026年2月10日

暗号学支援のサイバー脅威知る情报の vulnerabilities を解き明かす

Uncovering Vulnerabilities of LLM-Assisted Cyber Threat Intelligence

Translated: 2026/2/14 7:19:47

Japanese Translation

大規模言語モデル(LLMs)がセキュリティアナリストにカyやくしてサイバー脅威を管理するための浪人であるようになり、脆弱性評価から事態応答までさまざまなタスクが自動化されるようになりました。しかし、実務的なCTIワークフローでは信頼性のギャップは依然として大きくあります。 現在の説明は一般的な模型問題(例えば、幻覚)に焦点を当てていますが、我々は普遍的バリアンスが主要なボトルネックであると考えています:CTIは多様化されている、変動的である、そして分割されています。これらの条件において、証拠は絡み合い、ソーシャルコントリビューションされ、タイムリーに不安定である特性が標準的なLLMベースの研究では捕らえ難いことを示しています。 本論文では、我々はCTI思考にあるLLMsの脆弱性に関する一貫したエビデンスを紹介します。そして、我々は労働者監督者のカテゴライズフレームワークを導入し、CTIライフサイクル全体にわたる脆弱性のモードを強固にラベル付けし、自動的な「LLMは裁判官」としてのパイプラインが脆くなることへの耐性を緩和します。我々は特定の分野での誤認心理の3つの種類を識別した: superficialメタデータから歪んだ相関性、相反する情報からの知識、そして新たに出現した脅威に対してより制限された一般的性を。これらのメカニズムに対する因果介入を通じて、我々はこの防御が効果的に脆弱性率を低下させることを検証し、これら全ての結果はCTIアгентаを建設的な分野-awareに作り出すための具体的な道筋になることを確認します。

Original Content

arXiv:2509.23573v3 Announce Type: replace-cross Abstract: Large language models (LLMs) are increasingly used to help security analysts manage the surge of cyber threats, automating tasks from vulnerability assessment to incident response. Yet in operational CTI workflows, reliability gaps remain substantial. Existing explanations often point to generic model issues (e.g., hallucination), but we argue the dominant bottleneck is the threat landscape itself: CTI is heterogeneous, volatile, and fragmented. Under these conditions, evidence is intertwined, crowdsourced, and temporally unstable, which are properties that standard LLM-based studies rarely capture. In this paper, we present a comprehensive empirical study of LLM vulnerabilities in CTI reasoning. We introduce a human-in-the-loop categorization framework that robustly labels failure modes across the CTI lifecycle, avoiding the brittleness of automated "LLM-as-a-judge" pipelines. We identify three domain-specific cognitive failures: spurious correlations from superficial metadata, contradictory knowledge from conflicting sources, and constrained generalization to emerging threats. We validate these mechanisms via causal interventions and show that targeted defenses reduce failure rates significantly. Together, these results offer a concrete roadmap for building resilient, domain-aware CTI agents.