3496 articles

arxiv_cs_lg 2026/4/24

Agnostic Language Identification and Generation

arXiv:2601.23258v2 Announce Type: replace 要約:近年の言語識別および生成に関する研究は、これらのタスクが達成できる密接な統計的レート(学習効率の上限と下界)を確立しました。これらの研究は、一般的に強い実現可能仮定(realizability assumption)の下で動作しており、入力データが与えられた語彙集合の一部の言語でサポートされる未知の分布から...

Original: arXiv:2601.23258v2 Announce Type: replace Abstract: Recent works on language identification and generation have established tight statistical rates at which these tasks can be achieved. These works t...

arxiv_cs_lg 2026/4/24

MetaboNet:Type1糖尿病管理のための最大の公開統合データセット

MetaboNet: The Largest Publicly Available Consolidated Dataset for Type 1 Diabetes Management

arXiv:2601.11505v2 発表タイプ:置換 要約:Type1糖尿病(T1D)アルゴリズム開発の進展は、既存のT1D管理データセットの断片化および標準化の欠如に制限されている。現在のデータセットは構造に大きな差異があり、アクセスおよび処理に時間がかかります。これにより、データ統合が阻害され、アルゴリズム開発の可比性及び汎用性が低下しています。本研究は、T1Dアルゴリズム開発のための統合的...

Original: arXiv:2601.11505v2 Announce Type: replace Abstract: Progress in Type 1 Diabetes (T1D) algorithm development is limited by the fragmentation and lack of standardization across existing T1D management ...

arxiv_cs_lg 2026/4/24

CEDAR: 代理型データサイエンスのための文脈エンジニアリング

CEDAR: Context Engineering for Agentic Data Science

arXiv:2601.06606v2 発表タイプ:置換 摘要:私達は、代理型セットアップ(agentic setup)でデータサイエンス(DS)タスクを自動化するアプリケーションである CEDAR を示します。LLM を用いて DS の問題を解決することは未開拓の領域であり、膨大な市場価値を有しています。課題は多岐にわたります:タスクの複雑さ、データサイズ、計算上の制約、そして文脈の制限です。これ...

Original: arXiv:2601.06606v2 Announce Type: replace Abstract: We demonstrate CEDAR, an application for automating data science (DS) tasks with an agentic setup. Solving DS problems with LLMs is an underexplore...

arxiv_cs_lg 2026/4/24

Mechanistic Interpretability と Prompt Engineering の架橋:解釈可能なパーソナ制御のための Gradient Ascent

Bridging Mechanistic Interpretability and Prompt Engineering with Gradient Ascent for Interpretable Persona Control

arXiv:2601.02896v2 Announce Type: replace 要約: 大規模言語モデル (LLMs) の自律的な行動的パーソナリティ(例:迎合、ハルシネーション)制御は AI セーフティにおいて極めて重要でありながら、依然として解決されなければならない課題です。既存のソリューションには、直感的だが非スケーラブルかつ不確実な「手動プロンプトエンジニアリング」 versus、効...

Original: arXiv:2601.02896v2 Announce Type: replace Abstract: Controlling emergent behavioral personas (e.g., sycophancy, hallucination) in Large Language Models (LLMs) is critical for AI safety, yet remains a...

arxiv_cs_lg 2026/4/24

最終的な LIL regret:非有界データにおけるサブガウシアン和のほぼ必然的な $\ ext{ln}\ln T$ regret

Eventually LIL Regret: Almost Sure $\ln\ln T$ Regret for a sub-Gaussian Mixture on Unbounded Data

arXiv:2512.12325v3 Announce Type: replace 要旨:Robbins が提案した古典的なサブガウシアン和の確率的設定において、実際に経路依存的(決定論的)regret bound となることを証明します。すべての自然な「Ville イベント」$\\mathcal E_\\alpha$ の経路について、時点を $T$ にした regret は、普遍定数を除き、$\...

Original: arXiv:2512.12325v3 Announce Type: replace Abstract: We prove that a classic sub-Gaussian mixture proposed by Robbins in a stochastic setting actually satisfies a path-wise (deterministic) regret boun...

arxiv_cs_lg 2026/4/24

メカニズム可視化におけるスパース辞書学習の統一理論:断片的双凸性と偽の極小値

A Unified Theory of Sparse Dictionary Learning in Mechanistic Interpretability: Piecewise Biconvexity and Spurious Minima

arXiv:2512.05534v5 Announce Type: replace 要約: AI モデルが多様なドメインにおいて驚異的な能力を模索する中、彼らが何を学習し、どのように概念を符号化しているかを理解することは、科学的進歩と信頼性の高いデプロイメントのためにますます重要になっています。最近のメカニズム可視化の研究では、ニューラルネットワークが意味ある概念をその表現空間内の線形方向として...

Original: arXiv:2512.05534v5 Announce Type: replace Abstract: As AI models achieve remarkable capabilities across diverse domains, understanding what representations they learn and how they encode concepts has...

arxiv_cs_lg 2026/4/24

Hybrid-AIRL: 監督型エキスパートガイダンスによる逆強化学習の向上

Hybrid-AIRL: Enhancing Inverse Reinforcement Learning with Supervised Expert Guidance

arXiv:2511.21356v3 Announce Type: replace Abstract: 敵対的逆強化学習(AIRL)は、専門家のデモンストレーションから密集型報酬関数を推測することで、強化学習におけるスパース報酬問題を解決する可能性を示しており、その有望性が高いです。ただし、高度に複雑なかつ不完全情報の設定におけるその性能は、まだほとんど探求されていません。このギャップを探るため...

Original: arXiv:2511.21356v3 Announce Type: replace Abstract: Adversarial Inverse Reinforcement Learning (AIRL) has shown promise in addressing the sparse reward problem in reinforcement learning (RL) by infer...

arxiv_cs_lg 2026/4/24

Transformers の学習における潜構造発見の階段的ダイナミクスに関する理解

Understanding the Staged Dynamics of Transformers in Learning Latent Structure

arXiv:2511.19328v2 Announce Type: replace Abstract: 言語モデル化は、transformers が文脈から潜構造を発見できることを見出しましたが、それらの構造の異なる構成要素をどのように獲得するかというダイナミクスについては依然として poorly understood(よく理解されていない)であり、モデルが単にトレーニングデータを混ぜ合わせている...

Original: arXiv:2511.19328v2 Announce Type: replace Abstract: Language modeling has shown us that transformers can discover latent structure from context, but the dynamics of how they acquire different compone...

arxiv_cs_lg 2026/4/24

raw フーチャリングから有効なエンベディングへ:マルチモーダルレシピ推薦のための 3 ステージアプローチ

From Raw Features to Effective Embeddings: A Three-Stage Approach for Multimodal Recipe Recommendation

arXiv:2511.19176v3 Announce Type: replace 要約: レシピ推薦は、Web ベースの食品プラットフォームにおいて不可欠なタスクとなっています。中心的な課題は、ユーザーとレシピの相互作用を超えた豊富なマルチモーダルフーチャリングを効果的に活用することです。わたしたちの解析结果显示、単純なマルチモーダル信号の利用でも競合的な性能が得られるため、これらの信号の系統的...

Original: arXiv:2511.19176v3 Announce Type: replace Abstract: Recipe recommendation has become an essential task in web-based food platforms. A central challenge is effectively leveraging rich multimodal featu...

arxiv_cs_lg 2026/4/24

競争相たからシナジーへ:主体驱动的画像生成における強化学習の解凍

From Competition to Synergy: Unlocking Reinforcement Learning for Subject-Driven Image Generation

arXiv:2510.18263v2 Announce Type: replace 要旨: 主体驱动的画像生成モデルは、アイデンティティの保持(忠実性)とプロンプトへの適合(編集性)という基本的なトレードオフに直面しています。オンラインの強化学習(RL)、特に GPRO は有望な解決策を提供しますが、私たちは単純な GRPO の適用が競合的劣化を引き起こすことを発見しました。これは、単純な線形報酬...

Original: arXiv:2510.18263v2 Announce Type: replace Abstract: Subject-driven image generation models face a fundamental trade-off between identity preservation (fidelity) and prompt adherence (editability). Wh...

arxiv_cs_lg 2026/4/24

SAMix:ニューラル・カプセル化を適応させる球形混合により、校正された高精度な継続学習

SAMix: Calibrated and Accurate Continual Learning via Sphere-Adaptive Mixup and Neural Collapse

arXiv:2510.15751v2 Announce Type: replace Abstract: 多くの継続学習手法は忘れの軽減と精度向上に焦点を当てているが、それらの重要性にもかかわらず、ネットワークの校正について十分重視されていない。ニューラル・カプセル化、すなわち最終層の特徴量がクラス平均に崩れる現象は、特徴量と分類器のミスマッチを減らすことで継続学習において優位性を示しており、少数の...

Original: arXiv:2510.15751v2 Announce Type: replace Abstract: While most continual learning methods focus on mitigating forgetting and improving accuracy, they often overlook the critical aspect of network cal...

arxiv_cs_lg 2026/4/24

分布的逆強化合成就学習

Distributional Inverse Reinforcement Learning

arXiv:2510.03013v3 発表 タイプ: 差し替え 要約:我々は、オフライン逆強化合成就学習(IRL)に対して、報酬関数と収益の全分布に関する不確実性を同時にモデル化する分布的枠組みを提案します。従来の IRL アプローチが決定論的な報酬推定を取得するか、期待値の収益のみを一致させるのに対し、我々の方法は、報酬の分布を学習することで専門家の行動におけるより豊かである構造を捉え、一階の確...

Original: arXiv:2510.03013v3 Announce Type: replace Abstract: We propose a distributional framework for offline Inverse Reinforcement Learning (IRL) that jointly models uncertainty over reward functions and fu...

arxiv_cs_lg 2026/4/24

補助学習を活用した大規模推薦システムの性能向上

Improving Large-Scale Recommender Systems with Auxiliary Learning

arXiv:2510.02215v3 Announce Type: replace Abstract: 大規模な推薦モデルを単一のグローバル目的関数でトレーニングする際には、ユーザー集団全体が均質であると暗黙的に仮定されます。しかし、現実世界のデータは、異なる条件付き分布を有する多様な層( heterogeneous cohorts)の複合体です。モデルが規模と複雑性の増大、およびトレーニングデー...

Original: arXiv:2510.02215v3 Announce Type: replace Abstract: Training large-scale recommendation models under a single global objective implicitly assumes homogeneity across user populations. However, real-wo...

arxiv_cs_lg 2026/4/24

マルチレベル最適輸送を用いたモデル層と脳領域間の表現整合化

Representational Alignment Across Model Layers and Brain Regions with Multi-Level Optimal Transport

arXiv:2510.01706v2 Announce Type: replace 要約:標準的な表現類似度解析(RSM)では、各ネットワーク層を他ネットワークとの最適な一致として個別に整合化し、非対称な結果をもたらします。これにより、グローバルな整合化スコアが得られず、異なる深さを持つネットワークの分析において課題が生じます。これらの限界は、グローバルな活性化構造を無視すること、および写像を頑...

Original: arXiv:2510.01706v2 Announce Type: replace Abstract: Standard representational similarity methods align each layer of a network to its best match in another independently, producing asymmetric results...

arxiv_cs_lg 2026/4/24

ビジネスプロセスがどのように展開するかを予測します。開始時刻と終了時刻を用いたカスペンダフiks の予測

How Will My Business Process Unfold? Predicting Case Suffixes With Start and End Timestamps

arXiv:2509.14536v3 Announce Type: replace 要旨:予測型プロセス監視は、継続中のビジネスケースの将来状態を予測することで、運用上の意思決定を支援します。主要なタスクの一つはケースサフィックス予測であり、これはケースの残りのアクティビティシーケンスを推定することです。既存の大多数のアプローチは、単一の時刻(通常は完了時間)しかないアクティビティを生成しています...

Original: arXiv:2509.14536v3 Announce Type: replace Abstract: Predictive process monitoring supports operational decision-making by forecasting future states of ongoing business cases. A key task is case suffi...

arxiv_cs_lg 2026/4/24

EvolveSignal: LLM ベースのコーディングエージェントを用いた交通信号制御戦略の自動発見

EvolveSignal: A Large Language Model Powered Coding Agent for Discovering Traffic Signal Control Strategies

arXiv:2509.03335v3 Announce Type: replace 要約:交通工学において、固定時間の交通信号制御は、低コスト、安定性、および解釈可能性の低さに基づき広く採用されています。しかし、その設計は手作業で作られた式(例えば、Webster の式)および人間のエンジニアによる手動の再タイミングに依存しており、要求の変化に適応させるためには労働集約的であり、異質や混雑した条件...

Original: arXiv:2509.03335v3 Announce Type: replace Abstract: In traffic engineering, fixed-time traffic signal control remains widely used for its low cost, stability, and interpretability. However, its desig...

arxiv_cs_lg 2026/4/24

(再)校準のための量化不確実性の品質評価 - データ駆動回帰モデルについて

Evaluating the Quality of the Quantified Uncertainty for (Re)Calibration of Data-Driven Regression Models

arXiv:2508.17761v3 Announce Type: replace 摘記:安全至關的な応用において、データ駆動モデルは単に精度が高いだけでなく、信頼できる不確実性の見積もりを提供する必要がある。この特性は、通常「校準(calibration)」と呼ばれるもので、リスク感知型の意思決定において不可欠である。回帰分析においては、多様な校準指標と再校準手法が出現している。しかし、これら...

Original: arXiv:2508.17761v3 Announce Type: replace Abstract: In safety-critical applications data-driven models must not only be accurate but also provide reliable uncertainty estimates. This property, common...

arxiv_cs_lg 2026/4/24

WISCA: LLM のトレーニングを Weight Scaling を通じて改善するための軽量モデル移行方法

WISCA: A Lightweight Model Transition Method to Improve LLM Training via Weight Scaling

arXiv:2508.16676v2 発表タイプ:差し替え 概要:Transformer アーキテクチャは LLM(大規模言語モデル)分野を徐々に支配しています。Transformer ベースの LLM のトレーニング最適化における最新の進歩は、主にアーキテクチャの変更や最適化器の調整に焦点を当てていますが、これらのアプローチはトレーニング中の重みパターンの体系的な最適化を欠いています。重みパター...

Original: arXiv:2508.16676v2 Announce Type: replace Abstract: Transformer architecture gradually dominates the LLM field. Recent advances in training optimization for Transformer-based large language models (L...

arxiv_cs_lg 2026/4/24

ローカル拡散モデルとデータの分布の相

Local Diffusion Models and Phases of Data Distributions

統計物理学に着想を得た生成 AI フレームワークの一つとして、拡散モデルはスコア関数に徐々に案内される去ノイズ過程を通じて複雑なデータ分布を合成する際、画期的な性能を示してきた。現実のデータ(例:画像)は低次元空間においてしばしば空間的に構造化されている。しかし、通常の拡散モデルはこの局所的構造を無視し、計算コストが高くつくことが多くスコア関数を空間的に全域で学習する。本稿では、非平衡統計物理学の...

Original: arXiv:2508.06614v2 Announce Type: replace Abstract: As a class of generative artificial intelligence frameworks inspired by statistical physics, diffusion models have shown extraordinary performance ...

arxiv_cs_lg 2026/4/24

KANMixer:長期時系列予測のための最小限の KAN 中心型ミキサー

KANMixer: a minimal KAN-centered mixer for long-term time series forecasting

arXiv:2508.01575v2 Announce Type: replace 要旨: エネルギー管理から気象予報に至るまで、重要な応用を支える長期時系列予測(LTSF)において、信頼性の高い多ステップ予測精度を達成することは依然として挑戦的である。現在のアプローチは MLP や Transformer に基づくものが支配的で、単純な線形写像に頼る場合と、複雑な手作業の誘導バイアスを導入する場...

Original: arXiv:2508.01575v2 Announce Type: replace Abstract: Long-term time series forecasting (LTSF) underpins critical applications from energy management to weather prediction, yet achieving reliable multi...