Back to list
FryNet:非破壊的なフライ油酸化評価のための双 Stream 対抗学習融合
FryNet: Dual-Stream Adversarial Fusion for Non-Destructive Frying Oil Oxidation Assessment
Translated: 2026/4/24 19:42:44
Japanese Translation
arXiv:2604.21321v1 発表タイプ:新規
要旨:フライ油の劣化モニタリングは食品安全において不可欠であるが、現在の慣行は空間情報を提供せず、リアルタイム使用に不適な破壊的な湿式化学解析に依存している。我々は、熱画像に基づく点検における根本的な障壁である、カメラの指紋ショートカット(モデルが酸化化学ではなく、センサー固有のノイズや熱バイアスを暗記して学習し、ビデオディスジェント評価では崩壊する)を特定した。FryNet、すなわち単一の前向き通過で油領域セグメンテーション、サービス性分類、および 4 つの化学酸化指数(PV, p-AV, Totox, 温度)の回帰を同時に行う双 Stream RGB-熱画像フレームワークを提案する。チャネルおよび空間注意を備えた ThermalMiT-B2 バックボーンが熱特徴を抽出する一方、RGB-MAE エンコーダーはマスク自動エンコードと化学配列を通じ、化学的基盤に基づいた表現を学習する。双エンコーダー DANN 対抗学習は勾配逆転層を通じてビデオアイデンティティに対して両 Stream に対して対抗学習正規化を行う。FiLM 融合は熱構造を RGB 化学的コンテキストと結びつける。28 本のフライビデオの 7,226 組のフレームで、FryNet は 98.97% の mIoU、100% の分類精度、2.32 の平均回帰 MAE を達成し、すべての 7 つのベースラインを凌ぐ。
Original Content
arXiv:2604.21321v1 Announce Type: new
Abstract: Monitoring frying oil degradation is critical for food safety, yet current practice relies on destructive wet-chemistry assays that provide no spatial information and are unsuitable for real-time use. We identify a fundamental obstacle in thermal-image-based inspection, the camera-fingerprint shortcut, whereby models memorize sensor-specific noise and thermal bias instead of learning oxidation chemistry, collapsing under video-disjoint evaluation. We propose FryNet, a dual-stream RGB-thermal framework that jointly performs oil-region segmentation, serviceability classification, and regression of four chemical oxidation indices (PV, p-AV, Totox, temperature) in a single forward pass. A ThermalMiT-B2 backbone with channel and spatial attention extracts thermal features, while an RGB-MAE Encoder learns chemically grounded representations via masked autoencoding and chemical alignment. Dual-Encoder DANN adversarially regularizes both streams against video identity via Gradient Reversal Layers, and FiLM fusion bridges thermal structure with RGB chemical context. On 7,226 paired frames across 28 frying videos, FryNet achieves 98.97% mIoU, 100% classification accuracy, and 2.32 mean regression MAE, outperforming all seven baselines.