3496 articles
PiFlow:法則に基づいた科学発見のためのマルチエージェント協働
PiFlow: Principle-Aware Scientific Discovery with Multi-Agent Collaboration
arXiv:2505.15047v4 Announce Type: replace Abstract: 大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)は、科学的発見において顕著な可能性を示しています。既存のアプローチでは、事前定義されたワークフローを用いて科学的発見が自動化されることはありますが、これらは合理的制約を欠いており、盲目的な仮説付けや仮説と証拠の一貫したリンクが...
Original: arXiv:2505.15047v4 Announce Type: replace Abstract: Large Language Model (LLM)-based multi-agent systems (MAS) demonstrate remarkable potential for scientific discovery. Existing approaches, however,...
Single-Trial 環境における Online プランニングを介した一般ユーティリティマルコフ決定過程の一般解法
Solving General-Utility Markov Decision Processes in the Single-Trial Regime with Online Planning
arXiv:2505.15782v2 発表種別:置き換え 要旨:本稿では、エージェントの性能が単一軌跡(single trajectory)に基づいて評価される単一試行(single-trial) режиме の無限horizon 割引一般ユーティリティマルコフ決定過程(GUMDP)を解く第一のアプローチを提唱します。まず、単一試行 режиме における政策最適化に関する基本的な結果を提供し、...
Original: arXiv:2505.15782v2 Announce Type: replace Abstract: In this work, we contribute the first approach to solve infinite-horizon discounted general-utility Markov decision processes (GUMDPs) in the singl...
最小注意力に基づくメタ強化学習
Meta-reinforcement learning with minimum attention
arXiv:2505.16741v3 Announce Type: replace Abstract: 最小注意力(Minimum attention)は、状態と時間に関する制御変化に最小作用の原理を適用した概念であり、最初には Brockett によって提案された。関与する正則化は、運動学習のような生物学的制御を模倣する際に非常に関連性が高い。我々は最小注意力を強化学習(RL)の報酬の一部として...
Original: arXiv:2505.16741v3 Announce Type: replace Abstract: Minimum attention applies the least action principle in the changes of control concerning state and time, first proposed by Brockett. The involved ...
影から脱却: ニューラルネットワークの検証のための隠れ空間の探求
Out of the Shadows: Exploring a Latent Space for Neural Network Verification
arXiv:2505.17854v3 Announce Type: replace 要約: ニューラルネットワークは汎用性が高いが、入力値の微小な変化に対して敏感である。したがって、安全性が極めて重要なアプリケーションにおいて予期しない挙動を防ぐためには、形式検証という知られ難い課題の解決が必要となる。現在、最先端の検証アルゴリズムは、ニューラルネットワークの出力可能集合を囲み込むために到達性解...
Original: arXiv:2505.17854v3 Announce Type: replace Abstract: Neural networks are ubiquitous. However, they are often sensitive to small input changes. Hence, to prevent unexpected behavior in safety-critical ...
自動的かつ構造感知な混合ニューラル ODE の稀疏化
Automatic and Structure-Aware Sparsification of Hybrid Neural ODEs
arXiv:2505.18996v2 告知 タイプ: 置き換え 要約: 混合ニューラル常微分方程式(ニューラル ODE)は、機能的モデルとニューラル ODE を統合することで強い誘導バイアスと柔軟性を提供し、特にデータが不足した医療分野において特に有利である。しかし、機能的モデル由来の過剰な潜在状態と相互作用は、トレーニングの非効率的化およびオーバーフィッティングを引き起こし、混合ニューラル OD...
Original: arXiv:2505.18996v2 Announce Type: replace Abstract: Hybrid neural ordinary differential equations (neural ODEs) integrate mechanistic models with neural ODEs, offering strong inductive bias and flexi...
Robust Constrained MDP における効率的な政策最適化と反復計算複雑性の保証
Efficient Policy Optimization in Robust Constrained MDPs with Iteration Complexity Guarantees
arXiv:2505.19238v3 発表タイプ:置換 要約:制約付き意思決定は、現実世界の制御システムで安全な政策を設計するために不可欠ですが、シミュレーション環境はしばしば現実世界の悪質性を捉えることに失敗します。我々は、現実のモデルとアクセス可能なシミュレーター/基準モデルの間に不一致がある場合であっても、累積報酬を最大化しつつ制約を満たす政策を学習する問題を検討します。特に、未知の基準モデ...
Original: arXiv:2505.19238v3 Announce Type: replace Abstract: Constrained decision-making is essential for designing safe policies in real-world control systems, yet simulated environments often fail to captur...
誰が責任を取るのか?現代の AI システムにおける帰属の課題
Who Gets Credit or Blame? Attributing Accountability in Modern AI Systems
arXiv:2506.00175v4 発表タイプ: 更新 要約:現代の AI システムは、事前学習、ファインチューニングのラウンド、そしてその後の適応やアライメントという複数の段階を経て開発され、各段階は前の段階を構築し、モデルを異なった方法で更新する。これにより、帰属の観点から非常に重要な問題が生じる:実 deployment されたモデルが成功または失敗した際に、どの段階が責任を持ち、その範...
Original: arXiv:2506.00175v4 Announce Type: replace Abstract: Modern AI systems are typically developed through multiple stages-pretraining, fine-tuning rounds, and subsequent adaptation or alignment, where ea...
正則化されたフローによる高速マルチスケール流体フローモデリング
Rectified Flows for Fast Multiscale Fluid Flow Modeling
arXiv:2506.03111v2 Announce Type: replace 要約:統計的な代用モデルの流体フローモデリングは、ダイナミクスが多スケールであり初期条件に高感度であるため困難です。条件付き拡散代用モデルは精度が高まりますが、通常は数百回の乱数サンプリングステップを必要とします。 我々は、入力から出力までの法則をほぼ一直線の軌道上に輸送する時間依存の条件付き速度場を学習する「正則...
Original: arXiv:2506.03111v2 Announce Type: replace Abstract: Statistical surrogate modeling of fluid flows is hard because dynamics are multiscale and highly sensitive to initial conditions. Conditional diffu...
Neural MJD: Non-stationary Merton Jump Diffusion ベースのニューラルネットワークによる時系列予測
Neural MJD: Neural Non-Stationary Merton Jump Diffusion for Time Series Prediction
arXiv:2506.04542v2 発表タイプ:更新 サマリー:ディープラーニング方法が時系列予測において高い性能を達成しているものの、そのブラックボックス的な性質や、潜在的な確率的過程を明示的にモデル化する能力の欠如は、非定常データ、特に劇的変化が存在する状況における一般化能力を制限しています。本研究では、非定常 Merton Jump Diffusion (MJD) モデルを基礎とした Ne...
Original: arXiv:2506.04542v2 Announce Type: replace Abstract: While deep learning methods have achieved strong performance in time series prediction, their black-box nature and inability to explicitly model un...
AlphaSteer: 理論に基づいた空部分と制約を用いた拒否ステアリング学習
AlphaSteer: Learning Refusal Steering with Principled Null-Space Constraint
LLM はますます実世界アプリケーションに展開されるようになり、悪意のあるプロンプト、特にジェイルブレイク攻撃に対して拒否能力を確保することは、安全かつ信頼性の高い使用に不可欠です。最近、推論中に LLM の内部活性化に拒否方向ベクトルを追加する活性化ステアリングが、LLM セーフティを強化する効果的なアプローチとして台頭しました。ただし、 indiscriminately 的に活性化ステアリング...
Original: arXiv:2506.07022v2 Announce Type: replace Abstract: As LLMs are increasingly deployed in real-world applications, ensuring their ability to refuse malicious prompts, especially jailbreak attacks, is ...
LLM からトレーニングデータの機密性を推定可能か?
Can We Infer Confidential Properties of Training Data from LLMs?
arXiv:2506.10364v4 Announce Type: replace 摘要:大規模言語モデル(LLM)は、ヘルスケア、金融、法務などの分野のアプリケーションを支援するために、ドメイン固有のデータセット上でより高度に微調整されています。これらの微調整データセットには、患者の人口統計データや疾患の有病率といった機密性の高いデータセット全体の特性が含まれており、これらは意図的に漏洩させら...
Original: arXiv:2506.10364v4 Announce Type: replace Abstract: Large language models (LLMs) are increasingly fine-tuned on domain-specific datasets to support applications in fields such as healthcare, finance,...
空間物理学への学習における解釈可能性と一般化境界
Interpretability and Generalization Bounds for Learning Spatial Physics
arXiv:2506.15199v2 Announce Type: replace Abstract: 科学的問題への機械学習(ML)の適用は多くの有望な応用例が存在するものの、視覚的データは欺瞞性を示すことがあります。数値解析的手法を用いることで、パラメータ発見や解の探索に適用された特定の ML モデルの精度、収束率、および一般化境界を厳密に定量化しました。データの数値と離散化を超えて、モデルの...
Original: arXiv:2506.15199v2 Announce Type: replace Abstract: While there are many applications of ML to scientific problems that look promising, visuals can be deceiving. Using numerical analysis techniques, ...
あなたの探している機能はこれらに限定されない:監督学習の前準備における根本的なボトルネック
These Are Not All the Features You Are Looking For: A Fundamental Bottleneck in Supervised Pretraining
arXiv:2506.18221v3 Announce Type: replace 要約:転移学習は、少量の新しいデータを使用して大規模な事前トレーニング済みモデルを新たなタスクに適応させるために広く使われています。しかし、課題は依然存在しています — 元のタスクからの特徴は、特にタスク間の関連性が不明な場合、未見データに必要なものを十分に網羅していないことがありますが、その関連性が不明な場合、未...
Original: arXiv:2506.18221v3 Announce Type: replace Abstract: Transfer learning is widely used to adapt large pretrained models to new tasks with only a small amount of new data. However, a challenge persists ...
mTSBench:多変量時系列異常検出およびモデル選択のスケールにわたるベンチマーク
mTSBench: Benchmarking Multivariate Time Series Anomaly Detection and Model Selection at Scale
arXiv:2506.21550v2 Announce Type: replace Abstract: 多変量時系列における異常検出は、ヘルスケア、サイバーセキュリティ、産業モニタリングなど多岐にわたる分野において不可欠であり、高次元の依存関係、時系列変数間のクロス相関の存在、ラベル付けされた異常データの希少性という本質的な課題に直面しています。我々は、迄今为止最大規模の多変量時系列異常検出および...
Original: arXiv:2506.21550v2 Announce Type: replace Abstract: Anomaly detection in multivariate time series is essential across domains such as healthcare, cybersecurity, and industrial monitoring, yet remains...
Solver-Verifier Gap を通じた大規模言語モデルの自己改善トレーニング動態の理論的モデル化
Theoretical Modeling of Large Language Model Self-Improvement Training Dynamics Through Solver-Verifier Gap
arXiv:2507.00075v4 Announce Type: replace Abstract: 自己改善は、大規模言語モデル(LLM)の領域において、外部データの依存をなくして LLM のパフォーマンスを向上させるための重要な手法です。その重要性にもかかわらず、自己改善プロセス中に LLM パフォーマンスがどのように進化するのかについては、一般的に十分に探索されていません。本研究では、ソル...
Original: arXiv:2507.00075v4 Announce Type: replace Abstract: Self-improvement is a significant techniques within the realm of large language model (LLM), aiming to enhance the LLM performance without relying ...
アトラクター・パッチネットワーク:ロウランクなルーテッドパッチ専門家が引き起こす大規模忘却の低減
Attractor Patch Networks: Reducing Catastrophic Forgetting with Routed Low-Rank Patch Experts
arXiv:2602.06993v1 Announce Type: new 要約:トランスフォーマーは強力な言語モデル化の精度を達成していますが、その位置ごとの前馈ネットワーク(FFN)は、稠密でグローバルに共有され、通常エンドエンドに更新されます。これらの特性は実用的な緊張を生み出しています。第一に、稠密な FFN は文脈に関わらずすべてのトークンで同等の計算リソースを消費し、言語が高度に集簇...
Original: arXiv:2602.06993v1 Announce Type: new Abstract: Transformers achieve strong language modeling accuracy, yet their position-wise feed-forward networks (FFNs) are dense, globally shared, and typically ...
Neural Sabermetrics with World Model: Play-by-play Predictive Modeling with Large Language Model
arXiv:2602.07030v1 Announce Type: new 摘要:古典的なサバメトリクスは、長期にわたる試合の記録を凝縮した統計指標を通じて野球の分析を深く形作ってきました。これらの指標は価格的評価や回顧的分析には極めて有用ですが、ピッチごとの試合の発展を定義する生成モデルを提供していません。既存のアプローチの多くは単一ステップの予測や事後分析に制限されています。本研究では、野球の...
Original: arXiv:2602.07030v1 Announce Type: new Abstract: Classical sabermetrics has profoundly shaped baseball analytics by summarizing long histories of play into compact statistics. While these metrics are ...
Lagged backward-compatible physics-informed neural networks for unsaturated soil consolidation analysis
arXiv:2602.07031v1 Announce Type: new 本調査は、長期荷重下の一維不飽和土質の凝固をシミュレートおよび反転させるために、Lagged Backward-Compatible Physics-Informed Neural Network(LBC-PINN)を開発しました。多スケール時間領域における空気圧と水圧の連動した消散の課題に対処するため、このフレームワーク...
Original: arXiv:2602.07031v1 Announce Type: new Abstract: This study develops a Lagged Backward-Compatible Physics-Informed Neural Network (LBC-PINN) for simulating and inverting one-dimensional unsaturated so...
TransConv-DDPM: Biomedical 時系列データ生成に特化した拡張型ディフュージョンモデル
TransConv-DDPM: Enhanced Diffusion Model for Generating Time-Series Data in Healthcare
arXiv:2602.07033v1 Announce Type: new 本稿では、臨床分野における実世界データ不足が、診断および予防医療用の AI モデルの訓練に重大な障害となっていることを指摘します。生成 AI は、特にコンピュータビジョンおよび自然言語処理(NLP)分野において、データ量の増大とモデル訓練の強化に期待されていますが、医療 AI 応用において共通型の生理学的時系列データを生...
Original: arXiv:2602.07033v1 Announce Type: new Abstract: The lack of real-world data in clinical fields poses a major obstacle in training effective AI models for diagnostic and preventive tools in medicine. ...
TACIT: 直観的 Thought の変換感応型捉える
TACIT: Transformation-Aware Capturing of Implicit Thought
arXiv:2602.07061v1 発表 タイプ:new 要旨:私たちは、解釈可能な視覚推論のための拡散型トランスフォーマーである TACIT(Transformation-Aware Capturing of Implicit Thought)を提案します。言語ベースの推論システムとは異なり、TACIT は rectified flow を使用してピクセル空間全体で動作し、推論プロセスの各ステ...
Original: arXiv:2602.07061v1 Announce Type: new Abstract: We present TACIT (Transformation-Aware Capturing of Implicit Thought), a diffusion-based transformer for interpretable visual reasoning. Unlike languag...