Back to list
深層学習に基づく可変長フィードバック コーダ
Deep Variable-Length Feedback Codes
Translated: 2026/3/7 13:16:13
Japanese Translation
学習されたソリューション自体は、基本的に限界があります。彼らは固定のブロックの長さを使用し、高度なロスが発生する高いレートでパフォーマンスを低下させ、フィードバックの適応可能性の最大限に活用することができません。この論文は「深層可変幅広いフィードバック」(DeepVLF)コーディングを紹介します。これは、フィードバックによって伝送長がダイナミックに調整される柔軟なコーディングフレームワークです。我々は両方のアーキテクチャを提案します:DeepVLF-Rは受信者が終了を駆動し、DeepVLF-Tは発送元が終了を制御します。両方のアーキテクチャはビットグループ分割と変形ベースのエンコーダー・デコーダー・ネットワークを使用することで細かいグレードのレート適応を可能にします。AWGNおよび5G-NRの帯域遅延チャネルにおける評価では、DeepVLFは従来の学習されたフィードバックコーディングと比較して大幅に優れています。それは同じブロック的なエラーコールドを20%−55%より少ないチャンネル使用で達成し、エラー階層を桁単位以上に低下させます。特に高レートの領域においてです。エンコーディング動的分解析からはモデルが自律的に学習する二部戦略があらわれることもわかります:情報の伝達期間とその後のノイズクリーニングの精査期という古典的なSchalkwijk-Kailathのコーパション。この現象は学習コードの解釈性と情報を理論的に整合することを示しています。
Original Content
arXiv:2602.07881v1 Announce Type: cross
Abstract: Deep learning has enabled significant advances in feedback-based channel coding, yet existing learned schemes remain fundamentally limited: they employ fixed block lengths, suffer degraded performance at high rates, and cannot fully exploit the adaptive potential of feedback. This paper introduces Deep Variable-Length Feedback (DeepVLF) coding, a flexible coding framework that dynamically adjusts transmission length via learned feedback. We propose two complementary architectures: DeepVLF-R, where termination is receiver-driven, and DeepVLF-T, where the transmitter controls termination. Both architectures leverage bit-group partitioning and transformer-based encoder-decoder networks to enable fine-grained rate adaptation in response to feedback. Evaluations over AWGN and 5G-NR fading channels demonstrate that DeepVLF substantially outperforms state-of-the-art learned feedback codes. It achieves the same block error rate with 20%-55% fewer channel uses and lowers error floors by orders of magnitude, particularly in high-rate regimes. Encoding dynamics analysis further reveals that the models autonomously learn a two-phase strategy analogous to classical Schalkwijk-Kailath coding: an initial information-carrying phase followed by a noise-cancellation refinement phase. This emergent behavior underscores the interpretability and information-theoretic alignment of the learned codes.