3496 articles

arxiv_cs_lg 2026/4/24

共役制剤候補を生成するための多目標強化学習

Multi-Objective Reinforcement Learning for Generating Covalent Inhibitor Candidates

arXiv:2604.20019v1 Announce Type: new 摘要:共役制剤の合理的設計には、結合親和力、ターゲット選択性、または置換基反応性などの複数の特性を同時に最適化する必要がある。これはスクリーニングだけでは容易に解決できない多目標問題である。本研究では、エピDerミル成長因子受容体(EGFR)およびアセチルコリンエステラーゼ(ACHE)の 2 つのターゲットを対象とし、共役...

Original: arXiv:2604.20019v1 Announce Type: new Abstract: Rational design of covalent inhibitors requires simultaneously optimizing multiple properties, such as binding affinity, target selectivity, or electro...

arxiv_cs_lg 2026/4/24

時系列とアンサンブルをまたぐ科学信号の高速漸近的適合: 共有可能なニューラルフィールドによるアプローチ

Fast Amortized Fitting of Scientific Signals Across Time and Ensembles via Transferable Neural Fields

arXiv:2604.19979v1 発表タイプ: new 要旨:ニューラルフィールド(非明示的ニューラル表現:INR)は、連続的な幾何学のモデリングに強力な枠組みを提供しますが、高次元の科学的設定においては、緩やかな収束とスケール性の課題によりその効果が制限されています。本研究では、INR モデルを時空間的および多変数信号に対応させる拡張を行い、科学信号間で INR 特徴を転移させる手法を示し...

Original: arXiv:2604.19979v1 Announce Type: new Abstract: Neural fields, also known as implicit neural representations (INRs), offer a powerful framework for modeling continuous geometry, but their effectivene...

arxiv_cs_lg 2026/4/24

LLM の不確実性と正解性は同じ特徴でエンコードされるのか?スパースオートエンコーダーによる機能的分離

Are LLM Uncertainty and Correctness Encoded by the Same Features? A Functional Dissociation via Sparse Autoencoders

arXiv:2604.19974v1 Announce Type: new Abstract: 大規模言語モデル(LLM)は確実でありながら正解の場合も、自信を持って誤答することもあり、その出力レベルの不確実性と実際の正解性が、同じ内部機構によって駆動されているのか、それとも異なる特徴量群によって駆動されているのかという疑問が投げかけられています。当研究では、予測を正解性および自信の軸に沿って分割...

Original: arXiv:2604.19974v1 Announce Type: new Abstract: Large language models can be uncertain yet correct, or confident yet wrong, raising the question of whether their output-level uncertainty and their ac...

arxiv_cs_lg 2026/4/24

一般化とメンバー推理攻撃の実践的な視点

Generalization and Membership Inference Attack a Practical Perspective

arXiv:2604.19936v1 発表タイプ:新しい 要旨:メンバー推理攻撃 (MIA) に対する新しい評価指標と攻撃手法の出現に伴い、以前受け入れられていた仮説を再評価することが不可欠となりました。本稿では、MIA の成功率とモデルの一般化率に関する長期間にわたる議論を、実証主義のアプローチで再確認します。データ拡張手法と早期停止を組み合わせてモデルの一般化性を向上させ、それが MIA の成...

Original: arXiv:2604.19936v1 Announce Type: new Abstract: With the emergence of new evaluation metrics and attack methodologies for Membership Inference Attacks (MIA), it becomes essential to reevaluate previo...

arxiv_cs_lg 2026/4/24

物理導向の次元削減による、剛性微分 - 代數式の操作学習におけるシミュレーションフリーなアプローチ

Physics-Guided Dimension Reduction for Simulation-Free Operator Learning of Stiff Differential--Algebraic Systems

arXiv:2604.19930v1 発表タイプ:新しい 要約:剛性微分 - 代數式(DAE)のためのニューラル代替物(surrogate)は、2 つの主要な課題に直面しています:柔軟な制約手法は代數式的残差を残すことがあり、それが剛性の増幅により大規模な誤差を生み出し、一方、堅固な制約手法は高コストな剛性積分器からの軌跡データが必要となります。本研究では、1 つの微分可能なソルブにおいて代數式の...

Original: arXiv:2604.19930v1 Announce Type: new Abstract: Neural surrogates for stiff differential-algebraic equations (DAEs) face two key challenges: soft-constraint methods leave algebraic residuals that sti...

arxiv_cs_lg 2026/4/24

セメント製造における放出予測、予測、および制御のためのマルチプラント機械学習フレームワーク

A Multi-Plant Machine Learning Framework for Emission Prediction, Forecasting, and Control in Cement Manufacturing

arXiv:2604.19903v1 Announce Type: new 要旨: セメント製造は、年間約 300 万トン(Mt)の NOx を排出する最大の産業空汚染の原因の一つです。産業標準の緩和対策である選択的無触媒還元法(SNCR)は NH3 の利用効率が低く、運用の非効率性と原料コストの増加を引き起こします。ここでは、世界中の 4 つのセメントプラントの大規模運用データを用いた、デー...

Original: arXiv:2604.19903v1 Announce Type: new Abstract: Cement production is among the largest contributors to industrial air pollution, emitting ~3 Mt NOx/year. The industry-standard mitigation approach, se...

arxiv_cs_lg 2026/4/24

スーパーアプリエル:1 チェックポイント、多くのスループット

Super Apriel: One Checkpoint, Many Speeds

arXiv:2604.19877v1 Announce Type: new Abstract: 私たちがスーパーアプリエル、全decoder層に4つのトレーニング済みミキサー選択(フルアテンション [FA]、スライディングウィンドウアテンション [SWA]、キミデルタアテンション [KDA]、およびゲート付きデルタネット [GDN])を提供する150億パラメータのスーパーネットをリリースします。配...

Original: arXiv:2604.19877v1 Announce Type: new Abstract: We release Super Apriel, a 15B-parameter supernet in which every decoder layer provides four trained mixer choices -- Full Attention (FA), Sliding Wind...

arxiv_cs_lg 2026/4/24

DR-Venus: 10K オープンデータのみで構築した、フラントエンド・エッジスケール Deep Research Agent への挑戦

DR-Venus: Towards Frontier Edge-Scale Deep Research Agents with Only 10K Open Data

arXiv:2604.19859v1 Announce Type: new Abstract: エッジスケールな Deep Research Agent を Small Language Models (SLM) で実装することは、コスト、遅延、プライバシーの利点により実世界デプロイメントにおいて魅力的である。この研究では、限られたオープンデータにおいて強力な SLM デープリサーチエージェントを...

Original: arXiv:2604.19859v1 Announce Type: new Abstract: Edge-scale deep research agents based on small language models are attractive for real-world deployment due to their advantages in cost, latency, and p...

arxiv_cs_lg 2026/4/24

LVLM の強化学習再考:収束、報酬分解,および汎化能力

Rethinking Reinforcement Fine-Tuning in LVLM: Convergence, Reward Decomposition, and Generalization

arXiv:2604.19857v1 Announce Type: new 要約: 検証可能な報酬(Verifiable Rewards, RLVR)を用いた強化学習は、ツール使用や多段階推論などのエージェント機能を備えた大規模ビジョン・言語モデル(LVLM)に威力を添えるパラダイムとして登場した。著しい実証的な成功をもたらした Visual Agentic Reinforcement Fine-...

Original: arXiv:2604.19857v1 Announce Type: new Abstract: Reinforcement fine-tuning with verifiable rewards (RLVR) has emerged as a powerful paradigm for equipping large vision-language models (LVLMs) with age...

arxiv_cs_lg 2026/4/24

分数量子力学モデルを用いた分子測定値の予測

Graph-Theoretic Models for the Prediction of Molecular Measurements

arXiv:2604.19840v1 発表タイプ:新 要約:分数量子力学的手法は、分子物性の予測において簡潔性、解釈性、および計算コストの低さを特徴とする。これらの手法の中で、Mukwembi と Nyabadza が提案した外部活性 $D(G)$ と内部活性 $\\〇(G)\$ インデックスに基づくモデルは、フラボノイドの小さなデータセットにおいて強固な結果を示したが、より巨大で化学的に多様化さ...

Original: arXiv:2604.19840v1 Announce Type: new Abstract: Graph-theoretic approaches offer simplicity, interpretability, and low computational cost for molecular property prediction. Among these, the model pro...

arxiv_cs_lg 2026/4/24

Expert Upcycling: Mixture-of-Experts の計算効率 frontier の転換

Expert Upcycling: Shifting the Compute-Efficient Frontier of Mixture-of-Experts

arXiv:2604.19835v1 発表タイプ:新規\n抽出: Mixture-of-Experts(MoE)は、大規模言語モデルをスケーリングする支配的なアーキテクチャとなっています。最先端のモデルは、稀疏なエクスパートルーティングを通じて、総パラメータ数とトークンあたり計算量を分離しています。スケーリングの法則によると、固定されたアクティブ計算量の下、モデルの品質は総パラメータ数と予測可能な...

Original: arXiv:2604.19835v1 Announce Type: new Abstract: Mixture-of-Experts (MoE) has become the dominant architecture for scaling large language models: frontier models routinely decouple total parameters fr...

arxiv_cs_lg 2026/4/24

オン・メーターグラフ機械学習:グリッドエッジの知能化を目的とした PV 発電予測の事例研究

On-Meter Graph Machine Learning: A Case Study of PV Power Forecasting for Grid Edge Intelligence

arXiv:2604.19800v1 宣言タイプ: 新しい論文 本論文は、マイクログリッドにおけるオン・メーターグラフ機械学習を用いた光伏发电出力の予測に Graph Neural Networks をどのように使用するかについて詳細に考察します。問題の背景と採用された技術、すなわち ONNX と ONNX Runtime を導入します。さらに、スマートメーターのハードウェアとソフトウェア仕様につ...

Original: arXiv:2604.19800v1 Announce Type: new Abstract: This paper presents a detailed study of how graph neural networks can be used on edge intelligent meters in a microgrid to forecast photovoltaic power ...

arxiv_cs_lg 2026/4/24

PayPal の Commerce Agent を加速する予測推論:EAGLE3 と微調整済み Nemotron モデルを用いた経験的研究

Accelerating PayPal's Commerce Agent with Speculative Decoding: An Empirical Study on EAGLE3 with Fine-Tuned Nemotron Models

arXiv:2604.19767v1 Announce Type: new Abstract: 私たちは、微調整済みの llama3.1-nemotron-nano-8B-v1 モデルをベースに PayPal の Commerce Agent に対して、推論時間における最適化手法として EAGLE3 を用いた予測推論を検証しました。先行研究(NEMO-4-PAYPAL)において、ドメイン固有な微調...

Original: arXiv:2604.19767v1 Announce Type: new Abstract: We evaluate speculative decoding with EAGLE3 as an inference-time optimization for PayPal's Commerce Agent, powered by a fine-tuned llama3.1-nemotron-n...

arxiv_cs_lg 2026/4/24

大規模言語モデルの推論とトレーニングへの影響を可視化する透明スクリーニングフレームワーク

Transparent Screening for LLM Inference and Training Impacts

arXiv:2604.19757v1 Announcement Type: new 本文は、観測可能性の制限下にある現在の大型言語モデルの推論およびトレーニングへの影響を推定するための透明スクリーニングフレームワークを示します。このフレームワークは、自然言語のアップリケーション記述を境界制限のある環境推定に変換し、既存の市場モデルを比較可能なオンライン観測機関をサポートします。直接測定を主張するの...

Original: arXiv:2604.19757v1 Announce Type: new Abstract: This paper presents a transparent screening framework for estimating inference and training impacts of current large language models under limited obse...

arxiv_cs_lg 2026/4/24

WorkflowGen:軌跡経験に基づく適応的なワークフロー生成メカニズム

WorkflowGen:an adaptive workflow generation mechanism driven by trajectory experience

arXiv:2604.19756v1 Announce Type: new Abstract: 大規模言語モデル(LLM)エージェントは、推論オーバーヘッドが高く、トークン消費が多すぎる、実行が不安定であり、ビジネスクエリ、ツールの使用、ワークフローオーケストレーションといった複雑なタスクで過去の経験を再使用できないといった課題に直面しています。従来の手法はクエリごとにワークフローからゼロで作成す...

Original: arXiv:2604.19756v1 Announce Type: new Abstract: Large language model (LLM) agents often suffer from high reasoning overhead, excessive token consumption, unstable execution, and inability to reuse pa...

arxiv_cs_lg 2026/4/20

数値推論のための三進接尾語トークナイゼーションスキーム

A Triadic Suffix Tokenization Scheme for Numerical Reasoning

arXiv:2604.11582v2 発表タイプ: 代替クロス 要約: 標準的なサブワードトークナイゼーション手法は数値を一貫性に欠けて細分化し、これにより大規模言語モデル(LLMs)が位置情報と小数点構造を失う。これは計算と科学推論における誤りの主要な駆動力である。本稿では、桁を 3 桁のトリアドに分割し、各トリアドに明確な大きさマーカーを付注する確定的スキーム、すなわち「Triadic Suf...

Original: arXiv:2604.11582v2 Announce Type: replace-cross Abstract: Standard subword tokenization methods fragment numbers inconsistently, causing large language models (LLMs) to lose positional and decimal st...

arxiv_cs_lg 2026/4/20

The Amazing Agent Race: 強力なツールユーザ、弱いナビゲーター

The Amazing Agent Race: Strong Tool Users, Weak Navigators

arXiv:2604.10261v2 Announce Type: replace-cross 要約:既存の LLM エージェントのためのツール使用ベンチマークは圧倒的に線形的である:6 つのベンチマークの分析において、55 から 100% のインスタンスが 2 から 5 ステップの単純な連鎖であることを確認しました。We introduce The Amazing Agent Race (AAR...

Original: arXiv:2604.10261v2 Announce Type: replace-cross Abstract: Existing tool-use benchmarks for LLM agents are overwhelmingly linear: our analysis of six benchmarks shows 55 to 100% of instances are simpl...

arxiv_cs_lg 2026/4/20

COMPOSITE-Stem

arXiv:2604.09836v2 Announce Type: replace-cross Abstract: AI agents hold growing promise for accelerating scientific discovery; yet, a lack of frontier evaluations hinders adoption into real workflows...

Original: arXiv:2604.09836v2 Announce Type: replace-cross Abstract: AI agents hold growing promise for accelerating scientific discovery; yet, a lack of frontier evaluations hinders adoption into real workflow...

arxiv_cs_lg 2026/4/20

Augmented-Action Surrogates を超えたマルチエクスパート学習に遅延交付

Beyond Augmented-Action Surrogates for Multi-Expert Learning-to-Defer

arXiv:2604.09414v2 Announce Type: replace-cross サブスクリプション: arXiv:2604.09414v2 Announce Type: replace-cross 要旨: 既存のマルチエクスパート学習に遅延交付サロゲートは統計的に一貫性があるにもかかわらず、アンダーフィットを行う、有用なエクスパートを抑制するか、エクスポートプールの拡大につれて劣...

Original: arXiv:2604.09414v2 Announce Type: replace-cross Abstract: Existing multi-expert learning-to-defer surrogates are statistically consistent, yet they can underfit, suppress useful experts, or degrade a...

arxiv_cs_lg 2026/4/20

ConFu: 未来を鑑賞し、より良い推測サンプリングを実現する

ConFu: Contemplate the Future for Better Speculative Sampling

arXiv:2603.08899v2 発表 タイプ:replace-cross 要約:推測デコード(Speculative decoding)は、軽量なドラフトモデルを介して候補トークンを提案し、これを目標モデルが検証することで、大規模言語モデル(LLM)の推論を加速する強力なアプローチとして台頭しました。このパラダイムの効果は、ドラフトモデルの品質に大きく依存しており、既存のドラフトモデルは誤り...

Original: arXiv:2603.08899v2 Announce Type: replace-cross Abstract: Speculative decoding has emerged as a powerful approach to accelerate large language model (LLM) inference by employing lightweight draft mod...