2031 articles

arxiv_cs_ai 2026/4/24

イデア・エラボレーションがアイデアの独自性の自動評価に及ぼす影響

The Effect of Idea Elaboration on the Automatic Assessment of Idea Originality

arXiv:2604.20569v1 Announce Type: cross Abstract: 創造的なタスクにおける回答の独自性を評価する自動システムが増加しています。これらは、人間の評価における主要な制約(コスト、疲労、主観性)に対する潜在的な解決策を提供しますが、自己偏愛バイアスの prelimiary(予備的)証拠が存在します。したがって、自動システムは、人間のものよりも自らのスタイ...

Original: arXiv:2604.20569v1 Announce Type: cross Abstract: Automatic systems are increasingly used to assess the originality of responses in creative tasks. They offer a potential solution to key limitations ...

arxiv_cs_ai 2026/4/24

Mango: グローバルビュー最適化によるマルチエージェント ウェブナビゲーション

Mango: Multi-Agent Web Navigation via Global-View Optimization

arXiv:2604.18779v1 Announce Type: cross 摘要:既存のウェブエージェントは一般的にルート URL から探索を開始しますが、深い階層構造を持つ複雑なウェブサイトでは非効率的です。ウェブサイトの構造に対するグローバルビューを欠くと、エージェントはナビゲーションの罠に陥り、非関係性の枝を探索したり、制限された予算内で目標情報に到達できたりします。我々は、ウェブサイト...

Original: arXiv:2604.18779v1 Announce Type: cross Abstract: Existing web agents typically initiate exploration from the root URL, which is inefficient for complex websites with deep hierarchical structures. Wi...

arxiv_cs_ai 2026/4/24

研究課題から科学ワークフローへ:科学自動化のためのエージェント型 AI 活用

From Research Question to Scientific Workflow: Leveraging Agentic AI for Science Automation

arXiv:2604.21910v1 Announce Type: new Abstract: 科学ワークフローシステムは実行の自動化(スケジューリング、故障耐性、リソース管理)を担っています jedoch、それ以前に存在する意味的な変換は担っていません。科学家们仍然將研究課題手動轉換為工作流規範,這是一個需要領域知識和基礎設施專長的任務。我們提出了一種代理架構,通過三層來彌合這個差距:LLM 將...

Original: arXiv:2604.21910v1 Announce Type: new Abstract: Scientific workflow systems automate execution -- scheduling, fault tolerance, resource management -- but not the semantic translation that precedes it...

arxiv_cs_ai 2026/4/24

Nemobot Games: 大規模言語モデルを用いたインタラクティブ学習のための戦略的 AI ゲームエージェントの作成

Nemobot Games: Crafting Strategic AI Gaming Agents for Interactive Learning with Large Language Models

arXiv:2604.21896v1 Announce Type: new 摘要:本稿は、大規模言語モデル(LLM)を活用し、Claude Shannon のゲームプレイングマシン分類を拡張・実装するための新しいパラダイムを紹介する。このパラダイムの核となるのが、ユーザーが LLM パワーのゲームエージェントを作成、カスタマイズ、デプロイし、同時に AI 主導の戦略と関与できるインタラクティブなエ...

Original: arXiv:2604.21896v1 Announce Type: new Abstract: This paper introduces a new paradigm for AI game programming, leveraging large language models (LLMs) to extend and operationalize Claude Shannon's tax...

arxiv_cs_ai 2026/4/24

ブラックボックスの境界線を設定する: AI リスク規制のための統計的認証枠組み

Bounding the Black Box: A Statistical Certification Framework for AI Risk Regulation

arXiv:2604.21854v1 発表タイプ: 新しい 要約:人工知能は現在、融資を受けられるかどうか、刑事調査へのフラグ表示、自律走行車のブレーキ応答などを決定しています。各国政府は EU AI アクツ、NIST リスク管理枠組み、欧州議会条約を通じて、高リスクシステムの安全証明を前提としたデプロイを求めると答えています。しかし、この規制の合意の下層には決定的な欠落が存在します:「受容可能...

Original: arXiv:2604.21854v1 Announce Type: new Abstract: Artificial intelligence now decides who receives a loan, who is flagged for criminal investigation, and whether an autonomous vehicle brakes in time. G...

arxiv_cs_ai 2026/4/24

Alignment の Fantasia 問題

Alignment has a Fantasia Problem

arXiv:2604.21827v1 Announce Type: new Abstract: 最新の AI アシスタントは、ユーザーが明確に自分の目標と必要な援助内容を伝えることができると仮定して指示順応を学習しています。しかし、数十年にわたる行動研究では、人々が自分の目標が完全に形成される前に AI システムと関わることを示しています。AI システムがプロンプトを意図の完全な表現として扱うと、...

Original: arXiv:2604.21827v1 Announce Type: new Abstract: Modern AI assistants are trained to follow instructions, implicitly assuming that users can clearly articulate their goals and the kind of assistance t...

arxiv_cs_ai 2026/4/24

Tool Attention: 動的ツールゲートイングと惰性スキーマ読み込みによる MCP/ツールの課金免除を目的としたスケーラブルなエージェントワークフロー

Tool Attention Is All You Need: Dynamic Tool Gating and Lazy Schema Loading for Eliminating the MCP/Tools Tax in Scalable Agentic Workflows

arXiv:2604.21816v1 Announce Type: new\n\nSummary: Model Context Protocol (MCP) は、大規模言語モデル(LLM)エージェントと外部ツールの接続のための一般的なインターフェースとなっていますが、ステートレスな前向きスキーマ注入への依存により、実務家が報告する隠れた「MCP課金」または「ツールの課金」という一回あたりオーバーヘ...

Original: arXiv:2604.21816v1 Announce Type: new Abstract: The Model Context Protocol (MCP) has become a common interface for connecting large language model (LLM) agents to external tools, but its reliance on ...

arxiv_cs_ai 2026/4/24

学習による相互作用的最適化:マルチエージェント言語システムの端到端最適化に向けて

Learning to Communicate: Toward End-to-End Optimization of Multi-Agent Language Systems

arXiv:2604.21794v1 発表 タイプ:新 要約: 大規模言語モデル(LLM)上で構築されたマルチエージェントシステムは、複雑な推論タスクにおける強力なパフォーマンスを示していますが、従来の研究はエージェントの役割とオーケストレーションに焦点を当て、エージェント間の通信を固定されたインターフェースとして扱います。キー・バリューキャッシュなどの内部表現を通じた潜在通信は、テキストベース...

Original: arXiv:2604.21794v1 Announce Type: new Abstract: Multi-agent systems built on large language models have shown strong performance on complex reasoning tasks, yet most work focuses on agent roles and o...

arxiv_cs_ai 2026/4/24

時間スタンプ付きデータから高レベルイベントの推論:複雑性と医療分野への応用

Inferring High-Level Events from Timestamped Data: Complexity and Medical Applications

arXiv:2604.21793v1 Announce Type: new Abstract: 本稿では、時間スタンプ付きデータと背景知識から高レベルの時間的に展開したイベントを検出するための、新しい論理的アプローチを開発します。我々のフレームワークは、論理的規則を用いて単純な時間的イベントの存在条件と終了条件を捉え、それらをメタイベントに結合します。医療分野においては、例えば、診断や薬剤投与など...

Original: arXiv:2604.21793v1 Announce Type: new Abstract: In this paper, we develop a novel logic-based approach to detecting high-level temporally extended events from timestamped data and background knowledg...

arxiv_cs_ai 2026/4/24

誰が「最高」を定義するか?対話型・ユーザー定義型の LLM ランキングの評価への取り組み

Who Defines "Best"? Towards Interactive, User-Defined Evaluation of LLM Leaderboards

arXiv:2604.21769v1 発表 タイプ: 新規 要旨: LLM ランキングボードは、モデルを比較し、デプロイ先の決定を導き出すために広く使われています。しかし、ランキングの付け方は、ベンチマークデザイナーによって設定された評価の優先順位によって形成されており、実際のユーザーや組織の多様な目的や制約に適合していないのが実情です。一つの総点数は、異なるプロンプトタイプや構成においてモデルが...

Original: arXiv:2604.21769v1 Announce Type: new Abstract: LLM leaderboards are widely used to compare models and guide deployment decisions. However, leaderboard rankings are shaped by evaluation priorities se...

arxiv_cs_ai 2026/4/24

論理的推理能力で思考する:少ないトークンで高精度

Thinking with Reasoning Skills: Fewer Tokens, More Accuracy

arXiv:2604.21764v1 Announce Type: new 要約:推理モデル (LLMs) は、新しい問題を解く際に、長い中間の推理経路(例:思考連鎖)に大量のトークンを使う傾向がある。本研究では、広範な考察と試行錯誤から抽出した再利用可能な推理スキルを要約・格納し、推論時にこれらのスキルを檢索して今後の推理を導くことを提案する。既存の「ゼロから推理する」パラダイムと異なり、当アプ...

Original: arXiv:2604.21764v1 Announce Type: new Abstract: Reasoning LLMs often spend substantial tokens on long intermediate reasoning traces (e.g., chain-of-thought) when solving new problems. We propose to s...

arxiv_cs_ai 2026/4/24

大学学生の AI 使用開示意欲の促進・抑制経路:知・感情・欲求(CAC)的視角

Enabling and Inhibitory Pathways of University Students' Willingness to Disclose AI Use: A Cognition-Affect-Conation Perspective

arXiv:2604.21733v1 Announce Type: new 摘要: 人工知能(AI)が高学部の教育に統合されていくことにより、学生による AI 支援業務の透明性に関する重要な問題が提起されています。本研究では、知・感情・欲求(CAC)の枠組みに応用し、大学学生の AI 使用開示意欲の心理的メカニズムを調査しています。シークワレンシャル・エクスプラネントリ・ミックス・メソッドデザイン...

Original: arXiv:2604.21733v1 Announce Type: new Abstract: The increasing integration of artificial intelligence (AI) in higher education has raised important questions regarding students' transparency in repor...

arxiv_cs_ai 2026/4/24

GS-Quant: 知識図の補完を目的とした粒状型、構造的な生成型量子化

GS-Quant: Granular Semantic and Generative Structural Quantization for Knowledge Graph Completion

arXiv:2604.21649v1 Announce Type: new 摘要:大規模言語モデル(LLMs)は知識図の補完(KGC)において著しい可能性を呈していますが、連続的な図埋め表現と離散的な LLMトークン間のモダリティギャップを架くことは依然として重大な課題です。最近の量子化に基づくアプローチはこれらのモダリティの整合化を試みていますが、それらは量子化を平坦な数値圧縮として扱う傾向があ...

Original: arXiv:2604.21649v1 Announce Type: new Abstract: Large Language Models (LLMs) have shown immense potential in Knowledge Graph Completion (KGC), yet bridging the modality gap between continuous graph e...

arxiv_cs_ai 2026/4/24

見えないものを見る:変換器(Transformer)の記号的推理における一般化能力について

To See the Unseen: on the Generalization Ability of Transformers in Symbolic Reasoning

arXiv:2604.21632v1 Announce Type: new 要旨:当研究では、デコーダーのみ(decoder-only)の変換器モデルの抽象記号的推理の実行能力を調査します。具体的には、コンテキスト内に提示された命題論理推理問題の解決能力に焦点を当てています。過去の研究では、モデルが訓練時に観測された変数名を含まない問題に一般化できないことを示しており、その理由の一つとして未観測...

Original: arXiv:2604.21632v1 Announce Type: new Abstract: We investigate the ability of decoder-only transformer models to perform abstract symbolic reasoning; specifically solving propositional logic reasonin...

arxiv_cs_ai 2026/4/24

CoFEE: LLM ベースの特徴発見のための推論制御

CoFEE: Reasoning Control for LLM-Based Feature Discovery

arXiv:2604.21584v1 Announce Type: new Abstract: 複雑な非構造化データからの特徴発見は根本的に推論の問題であり、目標結果の予測因子となる抽象化を特定し、情報洩漏、代理指標、および結果後の信号を回避する必要がある。より高性能な大規模言語モデル(LLM)の登場に伴い、我々の手法はこの課題に対処するための構造化された方法を提供する。LLM は大量の情報を処理...

Original: arXiv:2604.21584v1 Announce Type: new Abstract: Feature discovery from complex unstructured data is fundamentally a reasoning problem: it requires identifying abstractions that are predictive of a ta...

arxiv_cs_ai 2026/4/24

Separable Expert Architecture: Toward Privacy-Preserving LLM Personalization via Composable Adapters and Deletable User Proxies

arXiv:2604.21571v1 Announce Type: new 摘要:現在のモデル学習アプローチは、ユーザー情報を共有ウェイトに直接組み込み、個別データの削除をリトレーニングしない限り計算的に不可能とします。本稿では、静的なベースモデル、行動を形作るがユーザーデータを移さない可構成的なドメインエキスパート LoRA アダプター、そして削除が決定論的な忘却を構成するパーユーザープロキシ...

Original: arXiv:2604.21571v1 Announce Type: new Abstract: Current model training approaches incorporate user information directly into shared weights, making individual data removal computationally infeasible ...

arxiv_cs_ai 2026/4/24

確率論的検証されたニューラルネットワークのための効率的確率論的外包生成による検証

Probabilistic Verification of Neural Networks via Efficient Probabilistic Hull Generation

arXiv:2604.21556v1 告知 タイプ:新規 要約:ニューラルネットワークの確率論的検証問題は、入力確率分布に従う場合、出力空間における安全制約を満たす確率を調べるものです。入力にしばしば確率論的変数によってモデル化された擾乱が生じる場合、この問題を解くことは重要です。本稿では、安全確率の保証された範囲を効率的に計算するために安全な外包と不安定な外包を探索する効率的な手法を用いた新しい...

Original: arXiv:2604.21556v1 Announce Type: new Abstract: The problem of probabilistic verification of a neural network investigates the probability of satisfying the safe constraints in the output space when ...

arxiv_cs_ai 2026/4/24

エンゲージされた AI 統治:内部専門家の協力を通じて最後の一哩の課題への対応

Engaged AI Governance: Addressing the Last Mile Challenge Through Internal Expert Collaboration

arXiv:2604.21554v1 Announce Type: new 摘要:EU AI 法案において、AI 統治要件をソフトウェア開発の慣行に変換することは依然として挑戦的です。業界および組織レベルで AI 統治フレームワークが存在することはありますが、チームレベルの実装に関する実証データは乏しいです。内部で行動研究を行う AI スタートアップ内に組み込まれたインサイダーによる行動研究を通じ...

Original: arXiv:2604.21554v1 Announce Type: new Abstract: Under the EU AI Act, translating AI governance requirements into software development practice remains challenging. While AI governance frameworks exis...

arxiv_cs_ai 2026/4/24

多カリブレーション大規模言語モデルによる偏りのない有病率推定

Unbiased Prevalence Estimation with Multicalibrated LLMs

arXiv:2604.21549v1 Announce Type: new 摘要:不確実な測定機器(診断テスト、分類器、または大規模言語モデルなど)を用いて、集団内のカテゴリ有病率を推定することは、科学、公衆衛生、およびオンラインの信頼性と安全において基本的な課題です。標準的なアプローチでは、既知の機器誤率を補正しますが、それらの率が集団間で安定しているという前提に立っています。本研究では、この仮...

Original: arXiv:2604.21549v1 Announce Type: new Abstract: Estimating the prevalence of a category in a population using imperfect measurement devices (diagnostic tests, classifiers, or large language models) i...

arxiv_cs_ai 2026/4/24

The CriticalSet problem: Identifying Critical Contributors in Bipartite Dependency Networks

arXiv:2604.21537v1 Announce Type: new Abstract: 複雑なネットワークにおける批判的なノードの特定は、グラフマイニングの基本的なタスクの一つである。しかし、2 つのグループ間の依存関係を表すエッジを持つ二部依存ネットワークにおいて、「すべてか何もかも」のカバレッジ・メカニクスに対処する方法は、まだ大いに研究されていない。我々は CriticalSet 問...

Original: arXiv:2604.21537v1 Announce Type: new Abstract: Identifying critical nodes in complex networks is a fundamental task in graph mining. Yet, methods addressing an all-or-nothing coverage mechanics in a...