Back to list
arxiv_cs_lg 2026年2月10日

PACC: プロトコル認識による階層間圧縮によるコンパクトなネットワークトラフィック表現

PACC: Protocol-Aware Cross-Layer Compression for Compact Network Traffic Representation

Translated: 2026/3/15 8:03:07
network-securitymachine-learningtraffic-classificationneural-networksinformation-theory

Japanese Translation

arXiv:2602.08331v1 Announce Type: cross Abstract: ネットワークトラフィック分類はネットワークセキュリティと管理の核心的な素素であり、しかしその汎用暗号化と進化するプロトコルにより常に脅されています。中核的なボトルネックは表現方法です。手作業で設計されたフロー統計量は効率的ですが往々にして損失が激しく、生ビットエンコーディングは正確ですがコストが高く、最近の事前トレーニングされたエンベデリングは転移学習を可能にしつつもプロトコルスタックを平坦化し、階層間の信号を絡み合わせてしまうことが多いです。我々は、実際のトラフィックにはネットワーク階層間および各階層内の substantial redundancy を多く含むことを観察しました。既存のパラダイムは明示的にこの冗長性を特定・除去しておらず、その結果、不要な容量の使用、近接学習、および泛化能力の低下を引き起こしています。これを解決するため、我々は冗長性認識型かつ階層認識型の表現フレームワークである PACC を提案しました。PACC はプロトコルスタックをマルチビュー入扱いとし、各階層に忠実でありながら明示的に表現を共有(階層間)と個別(階層固有)のコンポーネントに分解するコンパクトな階層別投影を学習します。我々は、これらの目標を階層固有情報を復元して保存し、共通構造を対比的 mutual-information learning で捉え、監督損失を通じてタスクに関連する情報を最大化する共同最適化で実現し、効率的な推論に適したコンパクトなラテンツを得ました。暗号化されたアプリケーション分類、IoT 機器特定、インシデント検知をカバーするデータセット全体において、PACC は特徴工学ベースおよび生ビットベースの基準を上回る一貫した性能を示しました。暗号化されたサブセットにおいて、nPrint に対して最大 12.9% の精度向上を実現しました。PACC は強力な基礎モデルベースに匹敵またはそれを超え、同時にエンドツーエンドの効率を最大 3.16 倍向上させました。

Original Content

arXiv:2602.08331v1 Announce Type: cross Abstract: Network traffic classification is a core primitive for network security and management, yet it is increasingly challenged by pervasive encryption and evolving protocols. A central bottleneck is representation: hand-crafted flow statistics are efficient but often too lossy, raw-bit encodings can be accurate but are costly, and recent pre-trained embeddings provide transfer but frequently flatten the protocol stack and entangle signals across layers. We observe that real traffic contains substantial redundancy both across network layers and within each layer; existing paradigms do not explicitly identify and remove this redundancy, leading to wasted capacity, shortcut learning, and degraded generalization. To address this, we propose PACC, a redundancy-aware, layer-aware representation framework. PACC treats the protocol stack as multi-view inputs and learns compact layer-wise projections that remain faithful to each layer while explicitly factorizing representations into shared (cross-layer) and private (layer-specific) components. We operationalize these goals with a joint objective that preserves layer-specific information via reconstruction, captures shared structure via contrastive mutual-information learning, and maximizes task-relevant information via supervised losses, yielding compact latents suitable for efficient inference. Across datasets covering encrypted application classification, IoT device identification, and intrusion detection, PACC consistently outperforms feature-engineered and raw-bit baselines. On encrypted subsets, it achieves up to a 12.9% accuracy improvement over nPrint. PACC matches or surpasses strong foundation-model baselines. At the same time, it improves end-to-end efficiency by up to 3.16x.