3496 articles

arxiv_cs_lg 2026/4/24

時効延長型 mixture-of-experts モデル

Temporally Extended Mixture-of-Experts Models

arXiv:2604.20156v1 公式発表 種類:新 要約:Mixture-of-Experts モデルは、推論速度を一定に保ちつつ能力をスケールさせるために現在広く採用されていますが、ほぼ毎トークンでエキスパートを切り替えています。モデルが利用可能な GPU メモリを超えると、この切り替えの頻繁さはオフロードやプレフィーチングなどの最適化を無効化してしまいます。我々は、強化学習におけるオプシ...

Original: arXiv:2604.20156v1 Announce Type: new Abstract: Mixture-of-Experts models, now popular for scaling capacity at fixed inference speed, switch experts at nearly every token. Once a model outgrows avail...

arxiv_cs_lg 2026/4/24

Fourier Weak SINDy:擬微分関数選択による堅牢なモデル識別のためのスペクトル密度推定量の選択

Fourier Weak SINDy: Spectral Test Function Selection for Robust Model Identification

arXiv:2604.20141v1 Announce Type: new 摘要:我々は、擬微分関数選択(Spectral Test Function Selection)とスペクトル密度推定を組み合わせることで、データ駆動のテスト関数選択を行う、ノイズへの頑健性が高く解釈可能性が備わった最小限の導関数自由な式学習手法、Fourier Weak SINDy を導入する。調和関数に基づくシステム識別...

Original: arXiv:2604.20141v1 Announce Type: new Abstract: We introduce Fourier Weak SINDy, a minimal noise-robust and interpretable derivative-free equation learning method that combines weak-form sparse equat...

arxiv_cs_lg 2026/4/24

多数対 1 崩壊を緩和するためのペアリング正則化

Pairing Regularization for Mitigating Many-to-One Collapse in GANs

arXiv:2604.20130v1 発表タイプ: 新規 要約: モード崩壊は、生成对抗ネットワーク(GAN)のトレーニングにおける根本的な課題の一つです。既存の研究は主にモードの脱落などのモード間崩壊に焦点を当てていましたが、多数の潜在変数が同じまたは類似した出力を生成するモード内崩壊については、著しいほどの注目が集まっていません。本稿では、生成器と共同最適化されるペアリング正則化を提案し、潜在...

Original: arXiv:2604.20130v1 Announce Type: new Abstract: Mode collapse remains a fundamental challenge in training generative adversarial networks (GANs). While existing works have primarily focused on inter-...

arxiv_cs_lg 2026/4/24

スケーラブルなマルチエージェントエッジコンピューティング向けのデルタ感応オーケストレーションフレームワーク

A Delta-Aware Orchestration Framework for Scalable Multi-Agent Edge Computing

arXiv:2604.20129v1 Announce Type: new 摘要:エージェント数を 100 個を超えスケールする場合、個々の最適化で防げない超線形性能低下が「対抗的崩壊(Synergistic Collapse)」を引き起こします。Smart City デプロイメントにおいて MADDPG を 150 カメラで運用したところ、期限満足を 78% から 34% に低下させ、年間コスト...

Original: arXiv:2604.20129v1 Announce Type: new Abstract: The Synergistic Collapse occurs when scaling beyond 100 agents causes superlinear performance degradation that individual optimizations cannot prevent....

arxiv_cs_lg 2026/4/24

民主主義システムのトラジェクトリー認識信頼性モデル

Trajectory-Aware Reliability Modeling of Democratic Systems

論文: arXiv:2604.20127v1 Announce タイプ: 新しい 要約: 複雑なシステムの失敗は、孤立した衝撃ではなく、相互に作用するコンポーネント間のストレス増大に伴う漸進的な劣化を通じて生じる場合が多い。民主主義システムも、弱体化する制度が関連する制度構造の連鎖的な劣化を引き起こすと同様の動的性質を示す。従来の信頼性および生存モデルは、現在のシステム状態に基づいて Failur...

Original: arXiv:2604.20127v1 Announce Type: new Abstract: Failures in complex systems often emerge through gradual degradation and the propagation of stress across interacting components rather than through is...

arxiv_cs_lg 2026/4/24

時系列ファウンデーションモデルを活用した適応的コンフォーマル異常検出とシグナルモニタリング

Adaptive Conformal Anomaly Detection with Time Series Foundation Models for Signal Monitoring

arXiv:2604.20122v1 発表タイプ: 新 アブストラクト: 私たちは、事前トレーニングされたファウンデーションモデルの予測を活用し、追加的微調を必要とせずに時系列のモニタリングのための事後適応的コンフォーマル異常検出法を提案します。私らの方法により、誤報率(p-値)として直接解釈可能な解釈可能な異常スコアが得られ、透明性が高く、実行可能な意思決定を可能にします。この方法は、加重量子...

Original: arXiv:2604.20122v1 Announce Type: new Abstract: We propose a post-hoc adaptive conformal anomaly detection method for monitoring time series that leverages predictions from pre-trained foundation mod...

arxiv_cs_lg 2026/4/24

ファーストオーダー二段階最小化最大化最適化アルゴリズムの安定性と一般化性能に関する考察

On the Stability and Generalization of First-order Bilevel Minimax Optimization

arXiv:2604.20115v1 発表タイプ:新規 要約:二段階最適化および二段階最小化最大化最適化は、ハイパーパラメータ最適化や強化学習の多岐にわたる機械学習タスクを統一的枠組みとして近年台頭しています。既存の文獻は実効性と収束保証に焦点を当てており、これらのアルゴリズムの一般化性能に関する理解においては決定的な理論的ギャップが存在しています。このギャップを埋めるために、下段階に最小化最大化...

Original: arXiv:2604.20115v1 Announce Type: new Abstract: Bilevel optimization and bilevel minimax optimization have recently emerged as unifying frameworks for a range of machine-learning tasks, including hyp...

arxiv_cs_lg 2026/4/24

Meta Additive Model: Interpretable Sparse Learning With Auto Weighting

arXiv:2604.20111v1 Announce Type: new Abstract: スパースアドダティブモデルは、高次元データ解析において柔軟な表現と高い解釈可能性ゆえに多くの注目を集めている。しかし、既存の多くのモデルは平均二乗誤差基準の下での単一レベル学習に制限されており、非高斯的な擾乱、外れ値、ノイズラベル、不平衡カテゴリといった複雑なノイズが存在する場合、実証的な性能が著しく...

Original: arXiv:2604.20111v1 Announce Type: new Abstract: Sparse additive models have attracted much attention in high-dimensional data analysis due to their flexible representation and strong interpretability...

arxiv_cs_lg 2026/4/24

暖開始されたマルコフ連鎖モンテカルロ (MCMC) フィニチューニングを用いた二次配置問題 (QAP) の学習

Learning to Solve the Quadratic Assignment Problem with Warm-Started MCMC Finetuning

二次配置問題(QAP)は、非決定的多項式時間問題の NP-hard の典型的な例であり、従来型のヒューリスティック解法だけでなく、最新の学習ベースのソルバーに対しても大きな挑戦を呈しています。既存の QAP ソルバーは、構造的に多様な実世界のインスタンスにおいて一貫した競争力のあるパフォーマンスを達成できていません。この性能のギャップを埋めるために、我々は効率的な暖開始された MCMC フィニチュ...

Original: arXiv:2604.20109v1 Announce Type: new Abstract: The quadratic assignment problem (QAP) is a fundamental NP-hard task that poses significant challenges for both traditional heuristics and modern learn...

arxiv_cs_lg 2026/4/24

Differentiable Conformal Training for LLM Reasoning Factuality

arXiv:2604.20098v1 発表 タイプ:新しい 要約:大規模言語モデル(LLM)は頻繁に幻覚(hallucination)を起こし、これが重要な応用における信頼性を制限しています。Conformal Prediction(CP)は、これは保持されたデータ上で誤り率を校正することで、統計的に妥当な確信保証を提供することで対応します。最近の取り組みは CP を LLM の事実性と拡張し、リ...

Original: arXiv:2604.20098v1 Announce Type: new Abstract: Large Language Models (LLMs) frequently hallucinate, limiting their reliability in critical applications. Conformal Prediction (CP) addresses this by c...

arxiv_cs_lg 2026/4/24

エネルギーベースのオープンセットアクティブ学習による物体分類

Energy-Based Open-Set Active Learning for Object Classification

arXiv:2604.20083v1 Announce Type: new 摘要:アクティブ学習(AL)は、未分類データプールから最も価値のあるサンプルを選択し注釈付けることで、ディープラーニングにおける注釈コストを最小化する重要な手法として台頭した。従来の AL は、データセット内のすべてのクラスが既知で一貫しているというクローズドセット仮定の下で動作する。しかし、実際のシナリオでは、未分類デー...

Original: arXiv:2604.20083v1 Announce Type: new Abstract: Active learning (AL) has emerged as a crucial methodology for minimizing labeling costs in deep learning by selecting the most valuable samples from a ...

arxiv_cs_lg 2026/4/24

Concept Graph Convolutions: Message Passing in the Concept Space

arXiv:2604.20082v1 Announce Type: new Abstract: Graph Neural Networks の予測に対する信頼性は、その不透明な推論プロセスに制限されています。以前の方法では、潜在表現から抽出した概念に基づく説明を通じてグラフネットワークを説明しようとしてきましたが、これらの説明はメッセージパスプロセスそのものの説明には不十分でした。そのためには、...

Original: arXiv:2604.20082v1 Announce Type: new Abstract: The trust in the predictions of Graph Neural Networks is limited by their opaque reasoning process. Prior methods have tried to explain graph networks ...

arxiv_cs_lg 2026/4/24

コーディングベンチマークにおけるディフューョン言語モデルの量子化頑丈性について

On the Quantization Robustness of Diffusion Language Models in Coding Benchmarks

arXiv:2604.20079v1 Announce Type: new アブストラクト:自己回帰型大規模言語モデル(LLM)はコーディングタスクで強固なパフォーマンスを達成しますが、高昂したメモリと推論コストを伴います。拡散ベースの言語モデル(d-LLM)は反復的去ノイズにより有界した推論コストを提供しますが、トレーニング後の量子化(PTQ)下での其行为は疎かに探求されてきました。我々は、拡...

Original: arXiv:2604.20079v1 Announce Type: new Abstract: Auto-regressive Large Language Models (LLMs) achieve strong performance on coding tasks, but incur high memory and inference costs. Diffusion-based lan...

arxiv_cs_lg 2026/4/24

Ridge スペクトラルスパース化を通じた大規模グラフ学習の改善

Improved large-scale graph learning through ridge spectral sparsification

arXiv:2604.20078v1 Announce Type: new 抽象:グラフベースの技術とスペクトRAL 図理論は、機械学習の分野に多種多様な重要な進展をもたらしました。解析の中心にある物体は、グラフの構造を符号化するグラフラプラシアン L です。我々は、ネットワーク内のワーカーが現実時間でグラフの新しいエッジを観測する分散ストリーミング設定におけるこのラプラシアンの上での学習の問題を...

Original: arXiv:2604.20078v1 Announce Type: new Abstract: Graph-based techniques and spectral graph theory have enriched the field of machine learning with a variety of critical advances. A central object in t...

arxiv_cs_lg 2026/4/24

Nystrom 法と連続的に計算されたリッジレバレッジスコアの解析

Analysis of Nystrom method with sequential ridge leverage scores

arXiv:2604.20077v1 告知 タイプ:新規 要旨: 大規模な核関数回帰(KRR)は、大規模な核関数行列 K_t を保存する必要があるため、制約に苦しんでいます。KRR 法では、Nystrom 法は核関数行列 K_t の列のサブセットをサンプリングし、再構築された行列上で近似 KRR 解を効率的に求めます。選択されたサンプリング分布は、統計的な計算上のトレードオフに影響を与えます。KR...

Original: arXiv:2604.20077v1 Announce Type: new Abstract: Large-scale kernel ridge regression (KRR) is limited by the need to store a large kernel matrix K_t. To avoid storing the entire matrix K_t, Nystrom me...

arxiv_cs_lg 2026/4/24

最大エントロピー半教師なし逆強化学習

Maximum Entropy Semi-Supervised Inverse Reinforcement Learning

arXiv:2604.20074v1 Announce Type: new 抽象:学徒学習(AL)の一般的なアプローチは、これを逆強化学習(IRL)の問題として定式化することである。MaxEnt-IRL アルゴリズムは、最大エントロピーの原則を IRL に統合する際、その先駆的な手法とは異なり、専門家の行動と一致する可能性がある大量のポリシーが存在することを理由とした多義性を解消する。本研究では...

Original: arXiv:2604.20074v1 Announce Type: new Abstract: A popular approach to apprenticeship learning (AL) is to formulate it as an inverse reinforcement learning (IRL) problem. The MaxEnt-IRL algorithm succ...

arxiv_cs_lg 2026/4/24

ブロックチェーン活用クラウド基盤の上でのフェデレーテッド学習

Federated Learning over Blockchain-Enabled Cloud Infrastructure

arXiv:2604.20062v1 発表 タイプ:新 要旨:IoT 装置の台頭とクラウドコンピューティングの浸透は、データ駆動型の知性化の新たな時代をもたらしました。従来、巨大なデータ量を一箇所に保管する必要があった中央集権型機械学習モデルは、そのためデータ侵害、プライバシー違反、および規制準拠の問題に対して極めて脆弱です。この報告書では、クラウド・エッジ環境におけるフェデレーテッド学習 (FL...

Original: arXiv:2604.20062v1 Announce Type: new Abstract: The rise of IoT devices and the uptake of cloud computing have informed a new era of data-driven intelligence. Traditional centralized machine learning...

arxiv_cs_lg 2026/4/24

UCB による探索を用いた可複製バンディット

Replicable Bandits with UCB based Exploration

arXiv:2604.20024v1 Announce Type: new Abstract: 私たちは、UCB(Upper Confidence Bound)に基づく探索を用いた確率多重アームバンディット(MAB)と線形バンディットのための可複製アルゴリズムを研究します。バンディットアルゴリズムが ρ 可複製であるとは、共有内部ランダム性と独立した報酬実現を持つ 2 つの実行が、少なくとも 1−...

Original: arXiv:2604.20024v1 Announce Type: new Abstract: We study replicable algorithms for stochastic multi-armed bandits (MAB) and linear bandits with UCB (Upper Confidence Bound) based exploration. A bandi...

arxiv_cs_lg 2026/4/24

統計学ではなくスケール: モジュール化された医療対話とベイズ信念エンジン

Statistics, Not Scale: Modular Medical Dialogue with Bayesian Belief Engine

arXiv:2604.20022v1 発表タイプ:new 要約:大規模言語モデル(LLM)は、自律的な診断エージェントとしてますます展開されていますが、それらは天然言語の通信と確率的推論という、根本的に異なる二つの能力を混同しています。我々は、この混同はエンジニアリング上の欠如ではなく、アーキテクチャ上の欠陥であるという主張を行います。我々は、言語と推論の厳格な分離を強制するモジュール化された診...

Original: arXiv:2604.20022v1 Announce Type: new Abstract: Large language models are increasingly deployed as autonomous diagnostic agents, yet they conflate two fundamentally different capabilities: natural-la...

arxiv_cs_lg 2026/4/24

Continuous Semantic Caching for Low-Cost LLM Serving

arXiv:2604.20021v1 Announce Type: new Abstract: 大規模言語モデル(LLM)の使用がますます増えているため、ユーザーが意味的に類似したクエリでリクエストできるように、応答をキャッシュする戦略は、推論コストと遅延を削減する上で不可欠なものとなっています。既存のキャッシュフレームワークは、有限で既知の離散クエリユニバースを前提とし、サービスコストと到着確率...

Original: arXiv:2604.20021v1 Announce Type: new Abstract: As Large Language Models (LLMs) become increasingly popular, caching responses so that they can be reused by users with semantically similar queries ha...