2031 articles

arxiv_cs_ai 2026/2/10

Agency Systemsの知的財産権保護: ワーターマーク法を使用して

On Protecting Agentic Systems' Intellectual Property via Watermarking

大規模言語モデル(LLMs)が自律的な推理とツールの使用を行えるようなアジェンターシステムに進化したことで、高度な知的財産(IP)価値が増えています。我々は、このシステムに対してその特性を悪用して専有性のある技術を盗むアドversaryによる模仿攻撃が非常に危険であることを示しました。現在のLLMワーターマークテクニクは、これは特定の分野で失敗していますように灰色ボックス内で実行される内部の解決法...

Original: arXiv:2602.08401v1 Announce Type: new Abstract: The evolution of Large Language Models (LLMs) into agentic systems that perform autonomous reasoning and tool use has created significant intellectual ...

arxiv_cs_ai 2026/2/10

アシスタントから二重に-Agent:形式化とベンチマークの攻撃をOpenClawに強化する

From Assistant to Double Agent: Formalizing and Benchmarking Attacks on OpenClaw for Personalized Local AI Agent

広範囲な言語モデル (LLM) を基盤とするAgentは、例として OpenClawになると、複雑な実世界タスクを解決するためにタスク指向システムから personalized AI アシスタントへと変化し始めています。しかし、オープンソースのAIアシスタントへの実世実の展開では、強固なセキュリティリスクも顕在化し始めています。しかしながら、個人的アジェンダに対する個人的理解のセキュリティ研究や検...

Original: arXiv:2602.08412v1 Announce Type: new Abstract: Although large language model (LLM)-based agents, exemplified by OpenClaw, are increasingly evolving from task-oriented systems into personalized AI as...

arxiv_cs_ai 2026/2/10

TreeTensor:ネストされたデータを制約された木型のテンソルと共にAIシステムを強化する

TreeTensor: Boost AI System on Nested Data with Constrained Tree-Like Tensor

テンソルは現在の人工知能 (AI) 系統における最も基本かつ重要なデータ構造です。テンソールというデータ構造の自然的な性質、特にメモリ連続性とスライス依存性から、トレーニングシステムがGPUのような並列計算機を使用して並行的にデータを同時に行き Spatial 及び Temporal ボンバーで処理しやすくなります。しかし、複雑な認知的な AI 系統のデータの場合、ネストされた構造(通常は、ネスト...

Original: arXiv:2602.08517v1 Announce Type: new Abstract: Tensor is the most basic and essential data structure of nowadays artificial intelligence (AI) system. The natural properties of Tensor, especially the...

arxiv_cs_ai 2026/2/10

対話モデルの最適化:アジェントゲームとadaptivel treeベースのGRPO

Dialogue Model Optimization via Agent Game and Adaptive Tree-based GRPO

オープンエンドな対話担当者は、ユーザーの特質を収集したプレロールデータに依存することなく、エンゲージメントのある personalized ディスコミュニケーションを提供しようとしますが、既存の方法には困難があります。特定のユーザーデータに対する過剰信頼と、最短のステージでの偏った reinforcement 学習 (RL) は、長期的な対話価値を無視しています。これらの問題に対処するために、我们...

Original: arXiv:2602.08533v1 Announce Type: new Abstract: Open-ended dialogue agents aim to deliver engaging, personalized interactions by adapting to users' traits, but existing methods face critical limitati...

arxiv_cs_ai 2026/2/10

PRISM:マルチ_AGENT レスリングのための原理に基づくフレームワーク:Gain デコービレーションを介して

PRISM: A Principled Framework for Multi-Agent Reasoning via Gain Decomposition

多-Agent協働が大型言語モデル(LLMs)の論理能力向上に興味深いパラダイムとなった。しかし、現在のアプローチは主として直感的に仕立てられており、性能の増大を引き起こす要素やその設計選択で最優上の影響度が高いのかについて正当な指導が欠けていた。 我々は、統一的な論理的フレームワークを提案し、多代理争理論思考力の増加を3つの概念的に独立した方向性に分解しました。それぞれの場合(探索・情報取得・合...

Original: arXiv:2602.08586v1 Announce Type: new Abstract: Multi-agent collaboration has emerged as a promising paradigm for enhancing reasoning capabilities of Large Language Models (LLMs). However, existing a...

arxiv_cs_ai 2026/2/10

グローバルワーキスペースア키텍チャにおけるトポーデウインターナーショナルメカニズムに対する注意力メカニズム

An Attention Mechanism for Robust Multimodal Integration in a Global Workspace Architecture

グローバルワーキステーション理論(GWT)は、認知神経科学で inspired される情報処理の世界において、多重モダリティ統合システム内の関連的モダリティの一部を選択し、柔軟な思考が形成されることを主張しています。この認知フレームワークは、多重モダリティの統合に向けた新たなコンピューティングアーキテクチャーを提案します。実装された GWT は、それ自身の多重モダリティ表現機能を探索してきましたが...

Original: arXiv:2602.08597v1 Announce Type: new Abstract: Global Workspace Theory (GWT), inspired by cognitive neuroscience, posits that flexible cognition could arise via the attentional selection of a releva...

arxiv_cs_ai 2026/2/10

Oscar: 活用最適化 steering の_agentic 運用計画 フレームワークによる複合画像検索

OSCAR: Optimization-Steered Agentic Planning for Composed Image Retrieval

複合的な画像検索(CIR)には、多岐にわたる視覚的情報と文書的な制約を組み合わせて処理する複雑で深い推論が必要です。現在のアプローチは主に2つのパラダイムに集中しています:一元的な埋め込み検索により、単一モデルの狭隘性が問題となり、またヒューマンアルゴリズムのagentic検索では、欠陥のある試行錯誤による優れた制約の組み合わせが問題です。このため、我々はOscarと呼ばれる最適化 steerin...

Original: arXiv:2602.08603v1 Announce Type: new Abstract: Composed image retrieval (CIR) requires complex reasoning over heterogeneous visual and textual constraints. Existing approaches largely fall into two ...

arxiv_cs_ai 2026/2/10

ディベートは時間効率的である

Debate is efficient with your time

アリーヴXIV:2602。08630 v1 新しい発表型:新しいです。 この投稿はAIの安全を図るディベートが、二つの競合するモデルを使用して、人力の裁判官によって複雑な計算タスクを確認し、検証することができますという点を宣布しています。以前の研究は、ディベートで解決できる問題について原則的にどのようなことができるかを確立しました、しかし人間の監視の実際的なコストについて分析しませんでした:裁判官...

Original: arXiv:2602.08630v1 Announce Type: new Abstract: AI safety via debate uses two competing models to help a human judge verify complex computational tasks. Previous work has established what problems de...

arxiv_cs_ai 2026/2/10

チャットボットに対する信頼感はなぜ存在する? Normative プレシスと行動的動機からの解釈

Why do we Trust Chatbots? From Normative Principles to Behavioral Drivers

チャットボットが通常の自動化システムとなり、人間との会話の境界をぼやきさせるにつれて、これらのシステムに対する信頼の foundations の詳細な調査は必要です。多くの場合、ユーザーはチャットボットに対して信頼を持たれないことが多く、これは、特定の意思決定とカウンターパート相互作用設計の選択を通じて形成されます。これらの行動的な動機は信任を確保するためではなく、カスタマーの行動を影響させる目的...

Original: arXiv:2602.08707v1 Announce Type: new Abstract: As chatbots increasingly blur the boundary between automated systems and human conversation, the foundations of trust in these systems warrant closer e...

arxiv_cs_ai 2026/2/10

ストリップス$_ {1}^{1}$の計算的複雑性の intermediate結果

Intermediate Results on the Complexity of STRIPS$_{1}^{1}$

This paper is based on Bylanderの結果に基づいて、Propositional STRIPS計画の計算的複雑性についてです。彼は,みずから地雷のみが使用可能な事態において,計画存在の決定はPSPACE完全であるかぎり,どのオペレータの前提条件と結果に限り二つを制限しても、プレースメントへの制約も2つの要素を制限してもNPハード性であることを示しました。 NP完全さは決ま...

Original: arXiv:2602.08708v1 Announce Type: new Abstract: This paper is based on Bylander's results on the computational complexity of propositional STRIPS planning. He showed that when only ground literals ar...

arxiv_cs_ai 2026/2/10

XAIの目的的な評価のためにSAIG方法を探索

Exploring SAIG Methods for an Objective Evaluation of XAI

論文は、人工エクスプレ ssible イノベーション (XAI) 方法の評価が急速に発展していることを説明し、その多様なアプローチによってXAI評価の複雑さが浮かび上がると述べています。この多元化により、他の一般的なAI評価とは異なり、XAI方法への説明に対する普遍的な正解が存在せず、これが客観的評価に挑戦するのが難しいことが示されています。その問題を解決するための一つの promising ディ...

Original: arXiv:2602.08715v1 Announce Type: new Abstract: The evaluation of eXplainable Artificial Intelligence (XAI) methods is a rapidly growing field, characterized by a wide variety of approaches. This div...

arxiv_cs_ai 2026/2/10

部分情報のない決定過程モデル (POMDP) を使用して Finite-State コントローラを強化学学習で導入する

Finite-State Controllers for (Hidden-Model) POMDPs using Deep Reinforcement Learning

完全な状態情報を持っている場合以外において、マルチプリックス モデルの決定過程模型(POMDP)における行動戦略を提供しようとすることで、新しいフレームワーク Lexpop が提案されました.Lexpopは,深層 Reinforcement Learning を用いてニューラルネイティブなポリシーを学習し,そしてそのニューラルポリシーよりも簡潔な Finite-State コントロールを効率的な抽...

Original: arXiv:2602.08734v1 Announce Type: new Abstract: Solving partially observable Markov decision processes (POMDPs) requires computing policies under imperfect state information. Despite recent advances,...

arxiv_cs_ai 2026/2/10

人間とAIの交互作用における信条転送

Belief Offloading in Human-AI Interaction

ロボット言語モデル(LLM)によって得られた人々の信念がどのようになされるのでしょうか?。人々は、ラーニングモ Entchatbotを思索パートナーとして使用し、それが知り込みオフロードに貢献する場合があります。これは過度な信頼に基づいても Cognitive オフロードに対する否定的な効果を持つことがあります。この本文では「信念転送」という特定の種類の認知オフロードを定義し、その下流の影響を含む...

Original: arXiv:2602.08754v1 Announce Type: new Abstract: What happens when people's beliefs are derived from information provided by an LLM? People's use of LLM chatbots as thought partners can contribute to ...

arxiv_cs_ai 2026/2/10

間接思考のダイナミクス:因果構造に対する実証的考察

Dynamics Within Latent Chain-of-Thought: An Empirical Study of Causal Structure

非言語的な段階的な思考法は、明示的な文脈的な理由を代わりに複数の内部的な不透明なステップを使用します。しかし、それらの中間計算は、相関に基づく探査を超えて評価することは困難です。この論文では、代表的なパラダイム(たとえば、ココナッツやCODI)を通じて数学的および一般的な推理タスクでの二つの主要な問いの解明に焦点をおいています。 (1) 応答が早期に決定できるステップはどのようにして正しいになるの...

Original: arXiv:2602.08783v1 Announce Type: new Abstract: Latent or continuous chain-of-thought methods replace explicit textual rationales with a number of internal latent steps, but these intermediate comput...

arxiv_cs_ai 2026/2/10

AIツールの使用によるQマトリックスの開発と検証

The Use of AI Tools to Develop and Validate Q-Matrices

認識診断モデル (CDM) の構築には重要なステップでありながら、作業としては大変手間がかかるのがQマトリックスの開発です。この研究では人工知能ツール(総合的な言語モデル)が、Cognitive diagnostic modeling(CDM)でQマトリックスを自動生成できるかをLiとSuen (2013) の validated Qマトリックスを使用して比較しました。2025年5月には、訓練資料...

Original: arXiv:2602.08796v1 Announce Type: new Abstract: Constructing a Q-matrix is a critical but labor-intensive step in cognitive diagnostic modeling (CDM). This study investigates whether AI tools (i.e., ...

arxiv_cs_ai 2026/2/10

残原因解析に基づく大規模言語モデルと余差構造を使用した方法

Root Cause Analysis Method Based on Large Language Models with Residual Connection Structures

複雑で大きなサイズのマイクロサービスアーキテクチャでの残原因ポジショナリングはまだ挑発的であり、マイクロサービス間の複雑な故障伝播とメトリックス、ログ、トレースデータなどの高次元タケビジュアルデータが制限します。さまざまな種類のための根原因アセスメント(RCA)方法。したがって,本論文では残原因ポジショナリングに基づく大規模言語モデル(LLM)を用いたRCLS方法として名付けられたリザースローゼン...

Original: arXiv:2602.08804v1 Announce Type: new Abstract: Root cause localization remain challenging in complex and large-scale microservice architectures. The complex fault propagation among microservices and...

arxiv_cs_ai 2026/2/10

負のAwareなダイセイマシン過程:テンソル知能グラフの予測拡張

Negative-Aware Diffusion Process for Temporal Knowledge Graph Extrapolation

temporal 知能グラフ (TKG) の論理は,過去の証拠から将来にわたる未知の事実を予想することです。 ドIFFUSIONSモデル(DM)が最近注目を集めているのは、複雑な予測分布を捉える能力にあります。 しかし、(i)生成パスの条件付けは正の証拠のみで、有用なネガティブの背景を無視して、(ii)トレーニングの目標は主にクロスクエリンランキングが支配的であり、候補の順序を改善するわけですが...

Original: arXiv:2602.08815v1 Announce Type: new Abstract: Temporal Knowledge Graph (TKG) reasoning seeks to predict future missing facts from historical evidence. While diffusion models (DM) have recently gain...

arxiv_cs_ai 2026/2/10

複合質量化条件ネットワークの満足不可能性の決定

Deciding the Satisfiability of Combined Qualitative Constraint Networks

AIの様々な形式の理由の中で研究されていることや、情報が不完全な状態であり数値も付与されていないような状況下でも知識を新たな知識として新しい情報を推論するように設計された質量化 reasonedは、数値的な情報ではあるけれども完全でも不確定でもない情報を基に新たな知識を推論することができる。この研究では、複数の形式の拡大と組み合わせにより、状態が多重なスケールであるときや連続された時系列にまたして...

Original: arXiv:2602.08848v1 Announce Type: new Abstract: Among the various forms of reasoning studied in the context of artificial intelligence, qualitative reasoning makes it possible to infer new knowledge ...

arxiv_cs_ai 2026/2/10

スケーラブル・デルピ: スタックしたリスク評価用の大規模言語モデル

Scalable Delphi: Large Language Models for Structured Risk Estimation

高額域での定量的なリスク評価は、不明瞭な特性を推定するために構造化された専門家の申出を利用します。最も真実の金の標準 - デルピ手法は、カスタムで検証可能、監視できる判断を行いつつ、数か月の協調と専門時間が必要なことを意味します。 我々は広大な言語モデル (LLM) が構造化された専門家申出を利用して-scalableで代用可能なのかを調べています。複多の専門人物について古典的なプロトコルを、ラリ...

Original: arXiv:2602.08889v1 Announce Type: new Abstract: Quantitative risk assessment in high-stakes domains relies on structured expert elicitation to estimate unobservable properties. The gold standard - th...

arxiv_cs_ai 2026/2/10

ダイスン型言語モデルへの効率的かつ安定したリフレッシュ学習

Efficient and Stable Reinforcement Learning for Diffusion Language Models

ダイスンベースされた大きな言語モデル(ダイスン型dLLMs)の複雑な推論能力をUnlockするためには、再実行可能な学習(RL)は非常に重要です。しかし、ダイスン型dLLMsにRLを適用すると、効率性と安定性に直面する一連の独自課題があります。これらの課題に対処するために、空間的削減(SP)フレームワークを提案しています。これは、(1) 空間的な削減SP: 予測的で静的前の情報を用いて探求スペース...

Original: arXiv:2602.08905v1 Announce Type: new Abstract: Reinforcement Learning (RL) is crucial for unlocking the complex reasoning capabilities of Diffusion-based Large Language Models (dLLMs). However, appl...