2031 articles
ネットワーク状況認識と階層的多エージェント強化学習に基づくオーバーレイマルチキャストルーティング手法
An Overlay Multicast Routing Method Based on Network Situational Awareness and Hierarchical Multi-Agent Reinforcement Learning
arXiv:2602.13211v2 Announce Type: replace-cross Abstract: IP マルチキャストと比較して、オーバーレイマルチキャスト(OM)は非均質かつクロスドメインなネットワークにおいて、より高い互換性と柔軟な展開を実現します。しかし、従来の OM 手法は物理リソースの状態を認識していないため、動的トラフィックに適応できず、既存の強化学習手法は OM ...
Original: arXiv:2602.13211v2 Announce Type: replace-cross Abstract: Compared with IP multicast, Overlay Multicast (OM) offers better compatibility and flexible deployment in heterogeneous, cross-domain network...
化情報学における 13C NMR 可逆学習:構造とスペクトルについて
Reversible Deep Learning for 13C NMR in Chemoinformatics: On Structures and Spectra
arXiv:2602.03875v4 Announce Type: replace-cross 摘要:我々は、分子構造とスペクトルの双方向において単一の条件付き可逆ニューラルネットワークを使用する、13C NMR 用の可逆深学習モデルを導入しました。このネットワークは i-RevNet 型の双射ブロックで構成されているため、前方写影とその逆写影は建設的に利用可能です。我々は、グラフベースの構造エン...
Original: arXiv:2602.03875v4 Announce Type: replace-cross Abstract: We introduce a reversible deep learning model for 13C NMR that uses a single conditional invertible neural network for both directions betwee...
OpInf-LLM:演算子推導を用いた LLM によるパラメトリック PDE 解法
OpInf-LLM: Parametric PDE Solving with LLMs via Operator Inference
arXiv:2602.01493v2 Announce Type: replace-cross Abstract: 多様な偏微分方程式 (PDE) の解法は、科学と工学において不可欠です。大型言語モデル(LLM)はコード生成、記号推論、およびツール使用において強固な能力を示していますが、異質的な設定を貫通して PDE を信頼性の高い方法で解くことは依然として困難です。LLM に基づくコード生成およ...
Original: arXiv:2602.01493v2 Announce Type: replace-cross Abstract: Solving diverse partial differential equations (PDEs) is fundamental in science and engineering. Large language models (LLMs) have demonstrat...
Continuous-Utility Direct Preference Optimization
arXiv:2602.00931v2 Announce Type: replace-cross 摘要:大型言語モデルの推論は、しばしば単一の能力として扱われており、部分の進捗や微細な推論の質を捉えきれない二項選択の優位性の監視に依存しています。私たちは、連続Utility Direct Preference Optimization(CU-DPO)を導入しました。これは、二項ラベルを微細な推論の...
Original: arXiv:2602.00931v2 Announce Type: replace-cross Abstract: Large language model reasoning is often treated as a monolithic capability, relying on binary preference supervision that fails to capture pa...
意味を持つ言葉:学習された語彙トークン表現における機動・感覚規範
Words that make SENSE: Sensorimotor Norms in Learned Lexical Token Representations
arXiv:2602.00469v2 Announce Type: replace-cross 要約:単語埋め込みは共起パターンから意味を導出する一方、人間の言語理解は感覚的・運動的体験に根ざしています。私たちは、単語の語彙埋め込みからランカスターの機動・感覚規範を予測する学習投影モデルである「SENSE」(機動・感覚埋め込み規範スコアリングエンジン)を提示します。さらに、281 名の参加者が候...
Original: arXiv:2602.00469v2 Announce Type: replace-cross Abstract: While word embeddings derive meaning from co-occurrence patterns, human language understanding is grounded in sensory and motor experience. W...
拡散ベースの言語モデル推論用の NPU 設計
NPU Design for Diffusion Language Model Inference
arXiv:2601.20706v2 Announce Type: replace-cross 摘れ要:拡散ベースの大規模言語モデル(dLLM)は、従来の自己回帰型(AR)LLM 推論と本質的に異なるアプローチを採用しています:双方向の注意機構、ブロックごとの KV キャッシュ更新、クロスステップ再使用、および GEMM 中心ではないサンプリングフェーズを活用します。これらの特性により、現在の ...
Original: arXiv:2601.20706v2 Announce Type: replace-cross Abstract: Diffusion-based LLMs (dLLMs) fundamentally depart from traditional autoregressive (AR) LLM inference: they leverage bidirectional attention, ...
GeoRA: RLVR 向け幾何構造感知低ランク適応法
GeoRA: Geometry-Aware Low-Rank Adaptation for RLVR
arXiv:2601.09361v3 Announce Type: replace-cross Abstract: 検証可能な報酬(Verifiable Rewards)を伴う強化学習(RLVR)は、大規模推論モデルの性能向上において重要なパラダイムである。上付き学習(Supervised Fine-Tuning, SFT)とは異なり、RLVR は別々の最適化ダイナミクスを示し、事前訓練された幾...
Original: arXiv:2601.09361v3 Announce Type: replace-cross Abstract: Reinforcement Learning with Verifiable Rewards (RLVR) is a key paradigm for improving large-scale reasoning models. Unlike supervised fine-tu...
RIFT: Reward-Informed Fine-Tuning を用いた否定サンプルの再利用
RIFT: Repurposing Negative Samples via Reward-Informed Fine-Tuning
arXiv:2601.09253v2 Announce Type: replace-cross 要約:上級 Fine-Tuning(SFT)と拒否サンプリング Fine-Tuning(RFT)は、LLM のアラインメントにおいて標準的手法ですが、どちらも高価な専門家に依存するデータが必要か、あるいは貴重な否定サンプルを捨てるため、データ効率が低下しています。この課題に対処するため、我々はすべての...
Original: arXiv:2601.09253v2 Announce Type: replace-cross Abstract: While Supervised Fine-Tuning (SFT) and Rejection Sampling Fine-Tuning (RFT) are standard for LLM alignment, they either rely on costly expert...
倣見か掌握か?大型言語モデルにおける推論蒸留における認知視点:『漢端学術』か『窮處語蘭』か
H\'an D\=an Xu\'e B\`u (Mimicry) or Q\=ing Ch\=u Y\'u L\'an (Mastery)? A Cognitive Perspective on Reasoning Distillation in Large Language Models
arXiv:2601.05019v2 Announce Type: replace-cross 摘要:最近、強化学習によって訓練された大型推論モデルは、人間の認知コストと「自然」に合致しているように見える。しかし、我々は、推論蒸留の prevailing パラダイム——すなわち、教師の軌跡を SFT(监督微调)を通じて倣わせることで学生モデルを訓練する——がこの認知構造を伝達しないことを示した。「...
Original: arXiv:2601.05019v2 Announce Type: replace-cross Abstract: Recent Large Reasoning Models trained via reinforcement learning exhibit a "natural" alignment with human cognitive costs. However, we show t...
重要な要素に焦点を当てて:脆弱性検出のためのフィッシャー導致的適応型マルチモーダル融合
Focus on What Matters: Fisher-Guided Adaptive Multimodal Fusion for Vulnerability Detection
arXiv:2601.02438v3 Announce Type: replace-cross Abstract: ソフトウェア脆弱性の検出は、与えられたコードスニペットがセキュリティの欠陥を含むかを判定する二値分類問題として定式化できます。既存のマルチモーダル手法は、事前学習されたモデルで抽出された自然言語コードシーケンス(NCS)表現と、グラフニューラルネットワークで抽出されたコードプロパ...
Original: arXiv:2601.02438v3 Announce Type: replace-cross Abstract: Software vulnerability detection can be formulated as a binary classification problem that determines whether a given code snippet contains s...
言語モデルによる数学的論理の構成分析:シューエンフェルッドの論理構造理論に基づく
Schoenfeld's Anatomy of Mathematical Reasoning by Language Models
arXiv:2512.19995v2 Announce Type: replace-cross 摘文:大規模言語モデルは論理的思考の過程を明らかにしてきていますが、その下の認知構造や思考手順は、表面の統計データを超えた段階で同定し解析するのが困難です。本研究では、シューエンフェルッドのエピソード理論を適用し、論理プロセスを分析、探索、実装、検証などの機能論的ステップとして明示的に抽象化するインダ...
Original: arXiv:2512.19995v2 Announce Type: replace-cross Abstract: Large language models increasingly expose reasoning traces, yet their underlying cognitive structure and steps remain difficult to identify a...
機械生成テキストにおけるバイアスの特定:検出システムへの考察
Identifying Bias in Machine-generated Text Detection
arXiv:2512.09292v2 Announce Type: replace-cross 摘要:テキスト生成能力の急速な向上に伴い、機械生成テキストの検出に関する関心も増大しました。これは、特定のテキストがモデルによって生成されたか、人間によって書かれたかを識別する能力を指します。検出モデルは高い性能を示しており、しかし重大なマイナス影響を及ぼす潜在能力も持っています。我々は、英語の機械生成...
Original: arXiv:2512.09292v2 Announce Type: replace-cross Abstract: The meteoric rise in text generation capability has been accompanied by parallel growth in interest in machine-generated text detection: the ...
Spacecraft Rendezvous 用 Language-Conditioned Safe Trajectory Generation
Language-Conditioned Safe Trajectory Generation for Spacecraft Rendezvous
arXiv:2512.09111v3 Announce Type: replace-cross 要約:信頼性が高く、リアルタイムの経路生成は、将来の自律型宇宙船にとって不可欠です。非凸な導航と制御に関する最近の進歩は、搭載型の自律型経路最適化への道を開くものの、これらの手法はまだ大規模な専門家の入力(例:経路点、制約条件、ミッションタイムラインなど)に依存しており、これが複雑なミッション(例:迎合...
Original: arXiv:2512.09111v3 Announce Type: replace-cross Abstract: Reliable real-time trajectory generation is essential for future autonomous spacecraft. While recent progress in nonconvex guidance and contr...
ソフトウェアエンジニアリングのための AI:可能から証明可能へ
AI for software engineering: from probable to provable
arXiv:2511.23159v2 発表タイプ:cross-replace 要約:Vibe coding(AI テクニQUES を使用したプログラミングという期待が高まる手法)は、目標の指定の困難さ(「プロンプトエンジニアリング」は要件定義の一種であり、ソフトウェアエンジニアリングにおける最も難しい分野の一つ)と幻覚現象という二つの過酷な課題に直面しています。プログラムが有用になるのは、それが...
Original: arXiv:2511.23159v2 Announce Type: replace-cross Abstract: Vibe coding, the much-touted use of AI techniques for programming, faces two overwhelming obstacles: the difficulty of specifying goals ("pro...
楽譜理解ベンチマーク:大規模言語モデルの完全な楽譜の理解能力を評価する
Musical Score Understanding Benchmark: Evaluating Large Language Models' Comprehension of Complete Musical Scores
arXiv:2511.20697v4 Announce Type: replace-cross 抽象: 完全な楽譜を理解するには、ピッチ、リズム、和声、そして大規模構造に関する統合的な推論が必要となります。しかし、大規模言語モデル(LLM)と視覚言語モデル(VLM)が完全な楽譜記号を解釈する能力は、まだ十分には研究されていません。私たちは、テキスト(ABC 記法)および視覚(PDF)の両方のモード...
Original: arXiv:2511.20697v4 Announce Type: replace-cross Abstract: Understanding complete musical scores entails integrated reasoning over pitch, rhythm, harmony, and large-scale structure, yet the ability of...
なぜ言語モデルエージェントが告発するのか?
Why Do Language Model Agents Whistleblow?
arXiv:2511.17085v3 Announce Type: replace-cross 要約:ツールを使用するエージェントとして大規模言語モデル (LLM) をデプロイすると、それらのアラインメント・トレーニングが新しい形で現れます。最近の研究では、言語モデルが利用者の利益や明示的な指示と矛盾する方法でツールを使用することが発見されています。私たちは「LLM 告発」という現象——利用者の指...
Original: arXiv:2511.17085v3 Announce Type: replace-cross Abstract: The deployment of Large Language Models (LLMs) as tool-using agents causes their alignment training to manifest in new ways. Recent work find...
Retrofit: 制御された忘却を用いたバイナリセキュリティ検出・分析のための継続学習
Retrofit: Continual Learning with Controlled Forgetting for Binary Security Detection and Analysis
arXiv:2511.11439v2 Announce Type: replace-cross 要約: バイナリセキュリティは、マルウェアの振る舞いやプログラムの文法を推論するために深層学習に依拠することが増えています。しかし、脅威の地形的変化やコード表現のシフトに伴い、パフォーマンスが低下する傾向にあります。継続学習(Continual Learning: CL)は、順次更新を介した自然的な解...
Original: arXiv:2511.11439v2 Announce Type: replace-cross Abstract: Binary security has increasingly relied on deep learning to reason about malware behavior and program semantics. However, the performance oft...
Causal Interventions to Neural Networksからの対立する表現への対処
Addressing divergent representations from causal interventions on neural networks
arXiv:2511.04638v5 Announce Type: replace-cross 要約:メカニスティック・インタープリタビリティの一般的なアプローチは、モデルの内部表現を理解するため、標的された介入を通じてその表現を因果的に操作することです。ここでは、そのような介入が分布外(=対立的な)表現を生み出すかどうか、そしてそれによる、結果としての説明が標的モデルの自然な状態に対する忠実性へ...
Original: arXiv:2511.04638v5 Announce Type: replace-cross Abstract: A common approach to mechanistic interpretability is to causally manipulate model representations via targeted interventions in order to unde...
RELOOP: Heterogeneous 問答における Multi-Hop Reasoner と Planners を備えた Recursive Retrieval
RELOOP: Recursive Retrieval with Multi-Hop Reasoner and Planners for Heterogeneous QA
arXiv:2510.20505v4 Announce Type: replace-cross Abstract: Retrieval-augmented generation (RAG) は、複数段階の質問や異種のエビデンスソースにおいては脆く、精度を遅延時間およびトークン/ツールの予算とのトレードオフとして犠牲しています。本稿では、階次シークエンス (HSEQ) を使用した構造感度のフレームワ...
Original: arXiv:2510.20505v4 Announce Type: replace-cross Abstract: Retrieval-augmented generation (RAG) remains brittle on multi-step questions and heterogeneous evidence sources, trading accuracy against lat...
LLM における公平性の評価と推論段階のバイアス軽減
Fairness Evaluation and Inference Level Mitigation in LLMs
arXiv:2510.18914v4 Announce Type: replace-cross 要旨:大規模言語モデルは、内部表現に埋め込まれた望ましくない振る舞いを示す傾向があり、これが公平性の欠如、一貫性の崩れ(不一致ドリフト)、有害コンテンツの増幅、および長期間にわたる対話・会話における望ましくないパターンの伝播を妨げる。学習時またはデータ中心的な手法がこれらの効果を軽減しようと試みるものの...
Original: arXiv:2510.18914v4 Announce Type: replace-cross Abstract: Large language models often display undesirable behaviors embedded in their internal representations, undermining fairness, inconsistency dri...