Back to list
arxiv_cs_lg 2026年2月10日

ロジックの表現空間を活用したニューロシンボル学習の改善について

On Improving Neurosymbolic Learning by Exploiting the Representation Space

Translated: 2026/3/15 14:49:47
neurosymbolicmachine-learningrepresentation-learninginteger-linear-programmingclassifier-training

Japanese Translation

arXiv:2602.07973v1 発表タイプ:新作 本文: 本研究では、入力インスタンスの隠れた真ラベルが論理式を満たす必要があるニューロシンボリック設定における神経分類器の学習を調べます。この設定における学習は、まず論理式を満たすラベルの組み合わせ(のサブセット)を計算し、その後、それらの組み合わせと分類器のスコアを用いて損失を計算して進めます。一つの手掛かりとなる課題は、ラベルの組み合わせの空間が指数関数的に増加し、学習が困難になることです。本研究では、類似の潜在表現を持つインスタンスが同じラベルを持つ可能性が高いという直感を活用して、この空間を剪定する技術を提案します。この直感は、過学習監督学習で広く利用されてきましたが、我々の設定における論理的要約によって引き起こされるラベルの依存関係のために適用が難しいという課題を抱えています。我々は、不一致なラベルの組み合わせを取り除きながら論理構造を尊重する整数線形計画として剪定プロセスを定式化しました。私達のアプローチである CLIPPER は既存の訓練アルゴリズムに直交しており、それらとシームレスに統合可能です。複雑なニューロシンボリックタスクを扱う 16 のベンチマークにおいて、我々は CLIPPER が Scallop, Dolphin, ISED といった最先端のニューロシンボリックエンジンのパフォーマンスをそれぞれ 48%, 53%, 8% まで向上させることを示し、これが最先端の精度に至ったことを示しました。

Original Content

arXiv:2602.07973v1 Announce Type: new Abstract: We study the problem of learning neural classifiers in a neurosymbolic setting where the hidden gold labels of input instances must satisfy a logical formula. Learning in this setting proceeds by first computing (a subset of) the possible combinations of labels that satisfy the formula and then computing a loss using those combinations and the classifiers' scores. One challenge is that the space of label combinations can grow exponentially, making learning difficult. We propose a technique that prunes this space by exploiting the intuition that instances with similar latent representations are likely to share the same label. While this intuition has been widely used in weakly supervised learning, its application in our setting is challenging due to label dependencies imposed by logical constraints. We formulate the pruning process as an integer linear program that discards inconsistent label combinations while respecting logical structure. Our approach, CLIPPER, is orthogonal to existing training algorithms and can be seamlessly integrated with them. Across 16 benchmarks over complex neurosymbolic tasks, we demonstrate that CLIPPER boosts the performance of state-of-the-art neurosymbolic engines like Scallop, Dolphin, and ISED by up to 48%, 53%, and 8%, leading to state-of-the-art accuracies.