Back to list
arxiv_cs_lg 2026年2月10日

Verifiable Logic に基づく生成型プランナー:信頼可能なエンボディッド AI のための混合アーキテクチャ

Grounding Generative Planners in Verifiable Logic: A Hybrid Architecture for Trustworthy Embodied AI

Translated: 2026/3/15 8:03:27
embodied-ailarge-language-modelsneuro-symbolicformal-verificationplanning

Japanese Translation

arXiv:2602.08373v1 Announce Type: cross 要約:エンボディッド AI のプランナーとしての大型言語モデル(LLM)の可能性は大きいものの、その確率的性質により形式的な推論が欠如しており、物理的なデプロイメントにおける厳密な安全保証が不可能である。既存のアプローチは、信頼性の低い LLM を安全チェックに依存するか、単に危険な計画を拒否するだけである。ここでは、パッシブな安全監視からアクティブな協働へとパラダイムを転換する、ニュートロ・シンボリックなアーキテクチャである検証可能な反復改善フレームワーク(VIRF)を提示する。我々の核心的な貢献は、形式的安全 Ontology に基づいた決定論的なロジックチューターが、LLM プランナーへ因果的および教育的フィードバックを提供する指導者 - 弟子の対話型システムである。これは単なる回避ではなく、知能的な計画修正を可能にする。また、実世界ドキュメントから安全知識ベースを統合し、既存ベンチマークの盲点を是正するスケーラブルな知識習得パイプラインも導入した。挑戦的な家庭環境安全タスクにおいて、VIRF は 0% の危険行為率(HAR)と、全てのベースライン中で最も高い 77.3% の目標条件率(GCR)を達成した。平均 1.1 回の修正反復だけで、極めて高い効率性を見せ、VIRF は根本的に信頼性と検証可能な安全性を備えたエンボディッドエージェントを構築するための原則に基づく道を開示した。

Original Content

arXiv:2602.08373v1 Announce Type: cross Abstract: Large Language Models (LLMs) show promise as planners for embodied AI, but their stochastic nature lacks formal reasoning, preventing strict safety guarantees for physical deployment. Current approaches often rely on unreliable LLMs for safety checks or simply reject unsafe plans without offering repairs. We introduce the Verifiable Iterative Refinement Framework (VIRF), a neuro-symbolic architecture that shifts the paradigm from passive safety gatekeeping to active collaboration. Our core contribution is a tutor-apprentice dialogue where a deterministic Logic Tutor, grounded in a formal safety ontology, provides causal and pedagogical feedback to an LLM planner. This enables intelligent plan repairs rather than mere avoidance. We also introduce a scalable knowledge acquisition pipeline that synthesizes safety knowledge bases from real-world documents, correcting blind spots in existing benchmarks. In challenging home safety tasks, VIRF achieves a perfect 0 percent Hazardous Action Rate (HAR) and a 77.3 percent Goal-Condition Rate (GCR), which is the highest among all baselines. It is highly efficient, requiring only 1.1 correction iterations on average. VIRF demonstrates a principled pathway toward building fundamentally trustworthy and verifiably safe embodied agents.