Back to list
arxiv_cs_cv 2026年2月10日

IMUベースのオンライン手書き認識をContrastive Learningで強化(Zero Inference Overhead)

Enhancing IMU-Based Online Handwriting Recognition via Contrastive Learning with Zero Inference Overhead

Translated: 2026/2/11 13:52:27

Japanese Translation

arXiv:2602.07049v1 アナウンスタイプ: new 要旨: 慣性計測ユニット(IMU)を用いたオンライン手書き認識は、紙上の手書きをデジタル機器への入力として利用できるようにする。エッジハードウェア上で処理を行うことはプライバシーを向上させ遅延を低減するが、メモリ制約を伴う。これに対処するために、我々は Error-enhanced Contrastive Handwriting Recognition(ECHWR)を提案する。ECHWRは、推論コストを増やすことなく特徴表現と認識精度を改善するための訓練フレームワークである。 ECHWRは訓練時に一時的な補助ブランチ(auxiliary branch)を利用し、センサー信号を意味的なテキスト埋め込み(semantic text embeddings)と整合させる。この整合は二重の対照目的(dual contrastive objective)によって維持される:モダリティ間の一般的な整合のための in-batch contrastive loss と、正しい信号と合成されたハードネガティブを区別する新しい error-based contrastive loss である。補助ブランチは訓練後に破棄されるため、展開時のモデルは元の効率的なアーキテクチャを維持でき、追加の推論オーバーヘッドは発生しない。 OnHW-Words500 データセットでの評価により、ECHWRは最先端のベースラインを大幅に上回り、writer-independent(筆者独立)分割で文字誤り率を最大7.4%低減し、writer-dependent(筆者依存)分割で最大10.4%低減することが示された。最後に、アブレーションスタディでは特定の課題を解くには特定のアーキテクチャや目的関数の設定が必要であることが示唆されたが、error-based contrastive loss は未知の筆跡スタイルへの対処に有効であることが確認された。

Original Content

arXiv:2602.07049v1 Announce Type: new Abstract: Online handwriting recognition using inertial measurement units opens up handwriting on paper as input for digital devices. Doing it on edge hardware improves privacy and lowers latency, but entails memory constraints. To address this, we propose Error-enhanced Contrastive Handwriting Recognition (ECHWR), a training framework designed to improve feature representation and recognition accuracy without increasing inference costs. ECHWR utilizes a temporary auxiliary branch that aligns sensor signals with semantic text embeddings during the training phase. This alignment is maintained through a dual contrastive objective: an in-batch contrastive loss for general modality alignment and a novel error-based contrastive loss that distinguishes between correct signals and synthetic hard negatives. The auxiliary branch is discarded after training, which allows the deployed model to keep its original, efficient architecture. Evaluations on the OnHW-Words500 dataset show that ECHWR significantly outperforms state-of-the-art baselines, reducing character error rates by up to 7.4% on the writer-independent split and 10.4% on the writer-dependent split. Finally, although our ablation studies indicate that solving specific challenges require specific architectural and objective configurations, error-based contrastive loss shows its effectiveness for handling unseen writing styles.