2031 articles

arxiv_cs_ai 2026/4/24

テストタイムコンピューティングの戦略的スケーリング:バンジ学習アプローチ

Strategic Scaling of Test-Time Compute: A Bandit Learning Approach

arXiv:2506.12721v2 発表タイプ: 置き換え 要約:テストタイムコンピューティングのスケーリングは、大規模言語モデルの性能向上に効果的な戦略として顕在化しました。しかし、既存の手法はすべてのクエリに対してコンピューティングリソースを均一に配分しており、クエリの難易度変動を考慮していません。この非効率性を解消するために、私たちがテストタイムコンピューティングの配分を新たなバンジ学習問...

Original: arXiv:2506.12721v2 Announce Type: replace Abstract: Scaling test-time compute has emerged as an effective strategy for improving the performance of large language models. However, existing methods ty...

arxiv_cs_ai 2026/4/24

C-SHAP for time series: 高レベルの時間 series 説明のためのアプローチ

C-SHAP for time series: An approach to high-level temporal explanations

arXiv:2504.11159v2 Announce Type: replace 摘要:医療や産業など重要な判断が求められる分野では、AI による意思決定の解釈可能性が極めて重要になっている。モデルの判断ロジックに関する洞察がない場合、これらのモデルの信頼性は確保できない。多くのアプリケーションは、画像データとは異なり、解釈可能な AI(XAI)技術の開発において探索が不十分な時間 serie...

Original: arXiv:2504.11159v2 Announce Type: replace Abstract: In high-stakes domains, such as healthcare and industry, the explainability of AI-based decision-making has become crucial. Without insight into mo...

arxiv_cs_ai 2026/4/24

LLM ベースのエージェントの評価に関する調査

Survey on Evaluation of LLM-based Agents

arXiv:2503.16416v2 発表タイプ: 代替 要約: LLM ベースのエージェントは、自律的なシステムが動的な環境と対話しながら計画、推論、ツールを使用することを可能にする AI パラダイムの転換を意味します。この論文は、これらの能力が急速に向上しているエージェントの評価方法に関する最初の包括的な調査を提供します。我々はエージェント評価の分野を以下の 5 つの観点から分析します: (1...

Original: arXiv:2503.16416v2 Announce Type: replace Abstract: LLM-based agents represent a paradigm shift in AI, enabling autonomous systems to plan, reason, and use tools while interacting with dynamic enviro...

arxiv_cs_ai 2026/4/24

Equity Bias: 知性 AI 設計のための倫理的枠組み

Equity Bias: An Ethical Framework for AI Design

arXiv:2604.21907v1 Announce Type: cross 要旨:Equity Bias は、より賢く公平な AI システムを構築するための哲学的かつ実践的な枠組みです。解釈論哲学と認識的不公正理論に基づく本枠組みでは、バイアスを排除すべき「誤り」としては扱わず、むしろシステムにコード化された「誰の知識か」という観点へと転換させます。従来のアプローチがバイアスを削減や除去に焦...

Original: arXiv:2604.21907v1 Announce Type: cross Abstract: Equity Bias is a philosophical and practical framework for building smarter, more equitable AI systems. Grounded in hermeneutic philosophy and episte...

arxiv_cs_ai 2026/4/24

拡散モデルを用いた並列的・時空間超解像のスケール適応的枠組み

A Scale-Adaptive Framework for Joint Spatiotemporal Super-Resolution with Diffusion Models

arXiv:2604.21903v1 Announce Type: cross 抽象:ディープラーニングによる動画超解像技術は急速に発展しましたが、気候分野においては通常、空間または時間側だけで解像度を向上(超解像)が行われ、同時的な時空間モデルは、低解像度シーケンスと高解像度シーケンスの空間縮小率と時間間隔(フレームレート)のペアに特化した設計が一般的です。これにより、空間解像度や時間間隔の異な...

Original: arXiv:2604.21903v1 Announce Type: cross Abstract: Deep-learning video super-resolution has progressed rapidly, but climate applications typically super-resolve (increase resolution) either space or t...

arxiv_cs_ai 2026/4/24

GiVA: ベクターベース適応のための勾配に基づく基底

GiVA: Gradient-Informed Bases for Vector-Based Adaptation

論文 ID: arXiv:2604.21901v1 発表タイプ: 交差 要約:モデルサイズがさらに増加するにつれて、パラメータ効率の低い微調整はフル微調整に代わる強力な選択肢として登場した。これらの手法の中で LoRA が広く採用されている一方で、近年の研究はその極限的なパラメータ効率のためベクターベース適応手法を検討し始めた。しかし、これらの手法は通常、LoRA に匹敵する性能を得るためには大幅...

Original: arXiv:2604.21901v1 Announce Type: cross Abstract: As model sizes continue to grow, parameter-efficient fine-tuning has emerged as a powerful alternative to full fine-tuning. While LoRA is widely adop...

arxiv_cs_ai 2026/4/24

ユニットコミットメントにおける多段階ウォームスタート深層学習フレームワーク

A Multi-Stage Warm-Start Deep Learning Framework for Unit Commitment

arXiv:2604.21891v1 Announce Type: cross 摘記:電気の需要と供給を瞬時にバランスさせられることは、信頼性とグリッド的不安定性を維持するために不可欠である。システム運営者は、厳格に、そして強力にグリッドの物理制約によって支配されている、非常に高い次元かつ大規模な混合整数線形計画(MILP)問題を解決することでこれを達成している。グリッドが変動可能な再生可能エネル...

Original: arXiv:2604.21891v1 Announce Type: cross Abstract: Maintaining instantaneous balance between electricity supply and demand is critical for reliability and grid instability. System operators achieve th...

arxiv_cs_ai 2026/4/24

TingIS: 大規模企業向けノイズに満ちた顧客インシデントからのリアルタイムリスク事象の検出

TingIS: Real-time Risk Event Discovery from Noisy Customer Incidents at Enterprise Scale

arXiv:2604.21889v1 Announce Type: cross 摘要:大規模クラウドネイティブサービスにおいて、技術的異常の検出と防止は不可欠であり、ダウンタイム数分で莫大な金銭的損失とユーザー信頼の低下をもたらす可能性がある。顧客インシデントは、監視によって見逃されたリスクを発見するための重要なシグナルであるが、このデータから実行可能な知見を引き出すのは、極度のノイズ、高いスルー...

Original: arXiv:2604.21889v1 Announce Type: cross Abstract: Real-time detection and mitigation of technical anomalies are critical for large-scale cloud-native services, where even minutes of downtime can resu...

arxiv_cs_ai 2026/4/24

ドキュメントからのオープンドメインイベント抽出のためのモーダルなテキストおよびグラフに基づくアプローチ

A Multimodal Text- and Graph-Based Approach for Open-Domain Event Extraction from Documents

arXiv:2604.21885v1 Announce Type: cross 要旨:イベント抽出はイベント理解・分析において不可欠であり、ドキュメント要約や緊急性の高い状況における意思決定支援などのタスクを支えています。ただし、既存のイベント抽出アプローチには以下のような限界があります:(1) クローズドドメインアルゴリズムは事前定義されたイベントタイプに限定されており、見知らぬタイプへの一般...

Original: arXiv:2604.21885v1 Announce Type: cross Abstract: Event extraction is essential for event understanding and analysis. It supports tasks such as document summarization and decision-making in emergency...

arxiv_cs_ai 2026/4/24

ノイズへの頑健性の高い量子回路最適化のためのリプレイバッファエンジニアリング

Replay-buffer engineering for noise-robust quantum circuit optimization

arXiv:2604.21863v1 発表タイプ:横断 要旨: 量子回路最適化のためのディープ強化学習(RL)は、時間差(TD)目標の信頼性を無視するリプレイバッファ、環境ステップ毎に全量子・古典的評価をトリガーするカリキュラムに基づくアーキテクチャ検索、そしてハードウェアノイズ下での再学習の際に無音の軌跡を定型通り捨てるという、3 つの根本的なボトルネックに直面しています。我々は、これら 3 ...

Original: arXiv:2604.21863v1 Announce Type: cross Abstract: Deep reinforcement learning (RL) for quantum circuit optimization faces three fundamental bottlenecks: replay buffers that ignore the reliability of ...

arxiv_cs_ai 2026/4/24

Transient Turn Injection: Stateless Multi-Turn Vulnerabilities in Large Language Models への暴露

Transient Turn Injection: Exposing Stateless Multi-Turn Vulnerabilities in Large Language Models

arXiv:2604.21860v1 Announce Type: cross 要旨:大型言語モデル(LLM)は現在、敏感なワークフローに徐々に統合され、攻撃的堅牢性と安全性のリスクが高まっています。本稿では、隔離された相互作用に攻撃的意図を分配することで、ステートレスなモデレーションを系統的に exploite し、マルチターン攻撃技法である Transient Turn Injection(T...

Original: arXiv:2604.21860v1 Announce Type: cross Abstract: Large language models (LLMs) are increasingly integrated into sensitive workflows, raising the stakes for adversarial robustness and safety. This pap...

arxiv_cs_ai 2026/4/24

TraceScope: 分割されたチェックリスト判断を用いたインタラクティブな URL 調査

TraceScope: Interactive URL Triage via Decoupled Checklist Adjudication

arXiv:2604.21840v1 Announce Type: cross 摘要:現代のフィッシングキャンペーンは、インタラクションゲート(例:チェックボックス/スライダー課題)、遅延コンテンツレンダリング、ロゴ付き不在の認証情報収集器などの方法により、ショットベースの URL クラシファイヤーを回避するようになりました。これは、URL 調査を静的分類からインタラクティブな法医調査作業へと変...

Original: arXiv:2604.21840v1 Announce Type: cross Abstract: Modern phishing campaigns increasingly evade snapshot-based URL classifiers using interaction gates (e.g., checkbox/slider challenges), delayed conte...

arxiv_cs_ai 2026/4/24

Single-Stimulus, Intra-Modal Dispersion に基づいたクロスモーダル収束の調節

Modulating Cross-Modal Convergence with Single-Stimulus, Intra-Modal Dispersion

arXiv:2604.21836v1 Announce Type: cross Abstract: 神経ネットワークは、多様なアーキテクチャ、トレーニング目的、さらにはデータモードを超えて驚くべき程度のアリランスの収束を示します。この収束は、脳のアリランスとの整合性を予示します。最近の仮説は、これは学習が環境の下位構造を類似の方法で学び得ることに起因すると提唱しています。しかし、個々の刺激がどの...

Original: arXiv:2604.21836v1 Announce Type: cross Abstract: Neural networks exhibit a remarkable degree of representational convergence across diverse architectures, training objectives, and even data modaliti...

arxiv_cs_ai 2026/4/24

Probably Approximately Consensus: 共通点を求めることに関する学習理論

Probably Approximately Consensus: On the Learning Theory of Finding Common Ground

arXiv:2604.21811v1 Announce Type: cross 要旨:オンライン対話プラットフォームの主要な目標の一つは、利用者の表れた好意を通じてコミュニティに広く合意を得られるアイデアを特定することです。しかし、コンセンサスの提起は、利用者が提供する特定の陳述のみを超えて拡張されるべきであり、特定のトピックの相対的な顕著さを包含すべきです。この問題は、潜在的高次元データを埋め込...

Original: arXiv:2604.21811v1 Announce Type: cross Abstract: A primary goal of online deliberation platforms is to identify ideas that are broadly agreeable to a community of users through their expressed prefe...

arxiv_cs_ai 2026/4/24

クオーティエント・スペース拡散モデル

Quotient-Space Diffusion Models

arXiv:2604.21809v1 発表タイプ:横断 要約: 拡散に基づく生成モデルは生成 AI を改革し、科学分野において新しい機能を可能化しました。例えば、分子の 3 次元構造を生成することです。特定のタスクの固有の問題構造により、システム内では群作用によって変換可能な対象を同一と見なす対称性がしばしば存在します。したがって、目標分布は本質的に群に関するクオーティエント・スペース上で定義され...

Original: arXiv:2604.21809v1 Announce Type: cross Abstract: Diffusion-based generative models have reformed generative AI, and have enabled new capabilities in the science domain, for example, generating 3D st...

arxiv_cs_ai 2026/4/24

なぜ全ての LLM が日本文化に魅了されているのか:LLM の隠れた文化的および地域バイアスについて

Why are all LLMs Obsessed with Japanese Culture? On the Hidden Cultural and Regional Biases of LLMs

arXiv:2604.21751v1 Announce Type: cross 要約:LLM は文化的なCoverage と能力において限界を示しており、場合によっては西側や英語圏中心的な視点を増幅するといった地域バイアスも現れています。LLM の文化的能力を検証した作品はありましたが、文化的な問いに関する LLM の地域的嗜好に焦点を当てる具体的な作品は存在していません。本論文では、Cultur...

Original: arXiv:2604.21751v1 Announce Type: cross Abstract: LLMs have been showing limitations when it comes to cultural coverage and competence, and in some cases show regional biases such as amplifying Weste...

arxiv_cs_ai 2026/4/24

StructMem: LLM における長期動作のための構造化メモリ

StructMem: Structured Memory for Long-Horizon Behavior in LLMs

arXiv:2604.21748v1 発表タイプ:横断 要約:長期的対話エージェントは、単なる孤立した事実を捉えるだけでなく、イベント間の関係を捉えるメモリシステムを必要とし、時系列推理やマルチホップ質問応答を支援する必要があります。現在の手法には根本的なトレードオフがあります:平面型メモリは効率的ですが関係構造をモデル化できず、グラフベースのメモリは構造化推理を可能にしますが、高コストかつ脆い...

Original: arXiv:2604.21748v1 Announce Type: cross Abstract: Long-term conversational agents need memory systems that capture relationships between events, not merely isolated facts, to support temporal reasoni...

arxiv_cs_ai 2026/4/24

Agent 型 AI 支援のコーディングは、ソフトウェア開発中に認識の根拠を確立する独自の機会を提供する

Agentic AI-assisted coding offers a unique opportunity to instill epistemic grounding during software development

arXiv:2604.21744v1 Announce Type: cross 要約:AI 支援コーディングの能力は驚異的な速度で進展しています。チャットベースの「バイブコーディング」は、エージェントサフォールドを利用した完全に稼働中の AI 支援、エージェント型ソフトウェア開発へと進化しました。ここで、人間開発者が計画を策定し、エージェント型 AI がその計画を実行する。現在のトレンドの一つと...

Original: arXiv:2604.21744v1 Announce Type: cross Abstract: The capabilities of AI-assisted coding are progressing at breakneck speed. Chat-based vibe coding has evolved into fully fledged AI-assisted, agentic...

arxiv_cs_ai 2026/4/24

AEL:Open-ended な環境で進化・学習を行うエージェント

AEL: Agent Evolving Learning for Open-Ended Environments

arXiv:2604.21725v1 Announce Type: cross 要約 大規模言語モデル(LLM)によるエージェントは、数百のエピソードにわたるオープンエンドな環境で動作するようになる一方、まだほとんどステートレス(状態を持たない)である。つまり、過去の実経験が未来の行動を改善する形で転換されることなく、各タスクは毎回最初から解かなくてはならない。その中心的な障壁とは「何を」覚える...

Original: arXiv:2604.21725v1 Announce Type: cross Abstract: LLM agents increasingly operate in open-ended environments spanning hundreds of sequential episodes, yet they remain largely stateless: each task is ...

arxiv_cs_ai 2026/4/24

Sequential decisions における不確実性下の公平性

Fairness under uncertainty in sequential decisions

arXiv:2604.21711v1 Announce Type: cross Abstract: フェアな機械学習(ML)手法は、アルゴリズムが社会的不公正をコード化したり自動化したりするリスクを特定し軽減するのを助けます。アルゴリズムアプローチ alone では構造的な不平等を解決することはできませんが、識別された偏りを浮き彫りにし、トレードオフを明確にし、ガバナンスを可能にするを通じて、社...

Original: arXiv:2604.21711v1 Announce Type: cross Abstract: Fair machine learning (ML) methods help identify and mitigate the risk that algorithms encode or automate social injustices. Algorithmic approaches a...