3496 articles

arxiv_cs_lg 2026/2/10

Median の近似は見た目よりも簡単:定数深さ、線形幅の ReLU ネットワークを用いた近似

The Median is Easier than it Looks: Approximation with a Constant-Depth, Linear-Width ReLU Network

arXiv:2602.07219v1 Announce Type: new 抽象: 我々は ReLU ニューラルネットワークを用いて d 個の入力の位分散の近似を研究します。我々は複数の設定における深さ幅のトレードオフを提示し、単位超立方体上における一様分布に対して、指数関数的に小さい近似誤差を持つ定数深さ、線形幅の構成を導き出します。最大値関数に関する先行的な研究が示唆していた、同様の精度を達...

Original: arXiv:2602.07219v1 Announce Type: new Abstract: We study the approximation of the median of $d$ inputs using ReLU neural networks. We present depth-width tradeoffs under several settings, culminating...

arxiv_cs_lg 2026/2/10

SpecAttn: スパースアテンションと自己推測解法との共設計

SpecAttn: Co-Designing Sparse Attention with Self-Speculative Decoding

arXiv:2602.07223v1 発表 タイプ:新規 要旨:現在、長文脈大規模言語モデル(LLM)の推論は、AI アプリケーションの標準化されてきましたが、KV キャッシュの記憶需要の増加により重く制限されています。以前のアプローチでは、トークンの草稿に KV キャッシュのサブセットを使用し、フル KV キャッシュと並列して検証する自己推測解法とスパースアテンションが、損失のない速度向上をもた...

Original: arXiv:2602.07223v1 Announce Type: new Abstract: Long-context large language model (LLM) inference has become the norm for today's AI applications. However, it is severely bottlenecked by the increasi...

arxiv_cs_lg 2026/2/10

Sample-Efficient Model Performance Estimators に対するフォールト・トランザレントな評価

Fault-Tolerant Evaluation for Sample-Efficient Model Performance Estimators

arXiv:2602.07226v1 発表タイプ:新規 要約:サービスとしてのモデル(MaaS)の時代において、組織は迅速なデプロイのために第三者の AI モデルにますます依存しています。しかし、新興 AI アプリケーションの動的な性質、新たなデータセットの継続的な導入、そして「卓越したパフォーマンス」を謳うモデルの増大により、モデルサービスの効率的かつ信頼性の高い検証はますます挑戦的になっていま...

Original: arXiv:2602.07226v1 Announce Type: new Abstract: In the era of Model-as-a-Service, organizations increasingly rely on third-party AI models for rapid deployment. However, the dynamic nature of emergin...

arxiv_cs_lg 2026/2/10

延髄に着想を得た余剰制御による故障回復:推論時の適応から構造の統合へ

Cerebellar-Inspired Residual Control for Fault Recovery: From Inference-Time Adaptation to Structural Consolidation

arXiv:2602.07227v1 Announce Type: new 要約: 実世界の環境で展開されるロボット政策は、トレーニング後の不具合に遭遇することがあります。この場合、再トレーニングや探索、システム特定は現実的ではありません。我々は、固定された強化学習政策にオンラインの修正動作を付加し、基本政策パラメータを変更せずに故障回復を可能にする、延髄に着想を得た推論時余剰制御フレームワークを...

Original: arXiv:2602.07227v1 Announce Type: new Abstract: Robotic policies deployed in real-world environments often encounter post-training faults, where retraining, exploration, or system identification are ...

arxiv_cs_lg 2026/2/10

ArcMark: Optimal Transport による multi-bit LLM ウォーミングマーク

ArcMark: Multi-bit LLM Watermark via Optimal Transport

arXiv:2602.07235v1 Announce Type: new 概要:ウォーミングマークは、言語モデル(LM)の責任ある利用を促進するための重要なツールです。既存のウォーミングマークは、生成されたトークンに信号を挿入することで、LM 生成テキストを特定する(ゼロビットウォーミングマーク)か、より複雑なメッセージをエンコードする(multi-bit ウォーミングマーク)かします。最近の複...

Original: arXiv:2602.07235v1 Announce Type: new Abstract: Watermarking is an important tool for promoting the responsible use of language models (LMs). Existing watermarks insert a signal into generated tokens...

arxiv_cs_lg 2026/2/10

Graph homophily booster: Discrete features を異質性グラフ学習における役割を再考する

Graph homophily booster: Reimagining the role of discrete features in heterophilic graph learning

arXiv:2602.07256v1 発表タイプ: 新作 要約:グラフニューラルネットワーク (GNN) は、構造化されたデータをモデル化する強力なツールとして台頭しました。しかし、既存の GNN は、接続されたノードが類似した特徴やラベルを持つ傾向がない異質性グラフ (heterophilic graphs) では、よく機能しません。多くの方法が提案されてはいますが、それらは主にアーキテクチャ設...

Original: arXiv:2602.07256v1 Announce Type: new Abstract: Graph neural networks (GNNs) have emerged as a powerful tool for modeling graph-structured data. However, existing GNNs often struggle with heterophili...

arxiv_cs_lg 2026/2/10

相関構造を持つ超大次元な変数選択のためのグループ検査を利用した堅牢なアプローチ

Robust Ultra-High-Dimensional Variable Selection With Correlated Structure Using Group Testing

arXiv:2602.07258v1 発表 タイプ:新 要旨:背景:高次元ゲノムデータは、従来の特徴選択手法が特徴の独立性を仮定したり、事前に定義された経路に頼ったり、また外れ値やモデルの誤指定に敏感であることを困難としてしまう強力なグループ相関構造を示す。 手法:我々は、データ駆動の変数群を階層クラスタリングにより形成し、群内および群外 hypotheses 検定を実施し、弾性ネットまたは適応弾...

Original: arXiv:2602.07258v1 Announce Type: new Abstract: Background: High-dimensional genomic data exhibit strong group correlation structures that challenge conventional feature selection methods, which ofte...

arxiv_cs_lg 2026/2/10

tLoRA: 弾性共有スーパーモデルを活用した効率的なマルチ LoRA 訓練

tLoRA: Efficient Multi-LoRA Training with Elastic Shared Super-Models

LoRA(Low-Rank Adaptation)が大規模言語モデルの効率的なファインチューニングの標準的なアプローチとなってきた現在、共有クラスターは同一のフリーズ済みバックボーンに対して多数の並行した LoRA 訓練ジョブを実行する傾向にあります。最近の進展により、サージング時に複数のアダプターのコLOCATION(バッチ化)が可能になっても、異種 LoRA アダプターの訓練時の効率的な共同配...

Original: arXiv:2602.07263v1 Announce Type: new Abstract: As Low-Rank Adaptation (LoRA) becomes the standard approach for efficiently fine-tuning large language models (LLMs), shared clusters increasingly exec...

arxiv_cs_lg 2026/2/10

XShare: モデルごとのベクトルを最適化し、MoE 推論の高速化を実現する

XShare: Collaborative in-Batch Expert Sharing for Faster MoE Inference

arXiv:2602.07265v1 発表タイプ:新しい 要旨:ミキストオブエキスパート (MoE) アーキテクチャは、大型言語モデルの効率的なスケーリングに広く利用されています。しかし、本番の推論において、リクエストのバッチ処理と推測デコードはエキスパートのアクティベーションを大幅に増大させ、これらの効率向上効果をごく僅かのものまで薄くします。我々は、バッチ意識型エキスパート選択をモジュール化さ...

Original: arXiv:2602.07265v1 Announce Type: new Abstract: Mixture-of-Experts (MoE) architectures are increasingly used to efficiently scale large language models. However, in production inference, request batc...

arxiv_cs_lg 2026/2/10

ワイヤレスインタラクティブパノラマシーンの配信のための混合フィードバック導向最適学習

Hybrid Feedback-Guided Optimal Learning for Wireless Interactive Panoramic Scene Delivery

arXiv:2602.07273v1 Announce Type: new 要旨:没入型アプリケーション(バーチャルリアリティ、拡張現実)は、フレームレート、レイテンシ、および物理環境とバーチャル環境間の同期に関する厳格な要件を課します。これらの要件を満たすために、エッジサーバーはパノラマコンテンツをレンダリングし、ユーザーのヘッドモーションを予測して、ユーザーのビューポートを被覆しつつも無線帯域...

Original: arXiv:2602.07273v1 Announce Type: new Abstract: Immersive applications such as virtual and augmented reality impose stringent requirements on frame rate, latency, and synchronization between physical...

arxiv_cs_lg 2026/2/10

Laplacian-LoRA: スペクトラル低ランク適応によるディープ GCN におけるオーバースムーthingの遅延

Laplacian-LoRA: Delaying Oversmoothing in Deep GCNs via Spectral Low-Rank Adaptation

arXiv:2602.07278v1 Announce Type: new 摘要:オーバースムーthing はディープグラフコンベンショネット(GCN)の基本的な限界であり、深さが深くなるにつれてノード表現が崩壊を引き起こします。既存の多くのアプローチはアーキテクチャの変更やリミカル機構を通じてこの効果を緩和していますが、オーバースムーthing の根本的なスペクトル原因はしばしば明示されていま...

Original: arXiv:2602.07278v1 Announce Type: new Abstract: Oversmoothing is a fundamental limitation of deep graph convolutional networks (GCNs), causing node representations to collapse as depth increases. Whi...

arxiv_cs_lg 2026/2/10

VertCoHiRF: k-means を超えた分散型垂直クラスタリング

VertCoHiRF: Decentralized Vertical Clustering Beyond k-means

arXiv:2602.07279v1 発表型: 新しい 要旨: 垂直連合学習 (VFL) は、同じサンプルを保有する異なる当事者間で補完的な特徴視点に基づいた協力的分析を可能にしますが、既存のアプローチはほとんどが分散型 $k$-means に制限されており、中央局の調整や特徴依存の数値統計の交換を必要とし、異質な視点や敵対的行為下でのロバスト性が低いです。私たちは、異質な視点における構造的一...

Original: arXiv:2602.07279v1 Announce Type: new Abstract: Vertical Federated Learning (VFL) enables collaborative analysis across parties holding complementary feature views of the same samples, yet existing a...

arxiv_cs_lg 2026/2/10

Calibrated Scoresに基づく公平な意思決定:適合性を満たしつつ最適分類を実現する

Fair Decisions from Calibrated Scores: Achieving Optimal Classification While Satisfying Sufficiency

arXiv:2602.07285v1 発表タイプ: 新作 要約:予測確率(スコア)に基づく二値分類は、教師あり機械学習における基本的な課題です。スコープ設定でスコープは Bayes 最適ですが、単一の閾値を使用すると一般に統計的グループの公平性を満たしません。独立性(統計的パラリティ)と分離(等質的オッズ)において、スコアが既に対応する基準を満たす場合、そのような閾値化は十分条件となります。しか...

Original: arXiv:2602.07285v1 Announce Type: new Abstract: Binary classification based on predicted probabilities (scores) is a fundamental task in supervised machine learning. While thresholding scores is Baye...

arxiv_cs_lg 2026/2/10

不変なニューラルネットワーク:内部ノイズに強健なモデルを一般化させるトレーニング

Incorruptible Neural Networks: Training Models that can Generalize to Large Internal Perturbations

arXiv:2602.07320v1 Announce Type: new Abstract: ニューラルネットワークの損失地形における平坦領域は、より良い汎化性能と相関していると考えられてきた。これに関連するが別個の課題として、ウェイトに対する内部擾乱に対するモデルの頑健性を備えたモデルのトレーニングが存在する。これは、将来の低電力ハードウェアプラットフォームにとって重要な要件となる可能性がある...

Original: arXiv:2602.07320v1 Announce Type: new Abstract: Flat regions of the neural network loss landscape have long been hypothesized to correlate with better generalization properties. A closely related but...

arxiv_cs_lg 2026/2/10

選択的幾何制御を用いた LLM 安全整合の堅牢性の再考

Revisiting Robustness for LLM Safety Alignment via Selective Geometry Control

arXiv:2602.07340v1 発表タイプ:新 要約: 大規模言語モデルの安全整合性は、ドメインシフトおよびノイズのある評価データ下で脆弱なままです。既存の多くの堅牢整合手法は、整合データにおける不確実性に焦点を当てており、基要化に基づく目標において最適化によって生じる脆性を無視してしまっています。この論文では、最適化幾何学の観点から LLM 安全整合における堅牢性を再考し、堅牢性の破綻はデ...

Original: arXiv:2602.07340v1 Announce Type: new Abstract: Safety alignment of large language models remains brittle under domain shift and noisy preference supervision. Most existing robust alignment methods f...

arxiv_cs_lg 2026/2/10

拡張性とARに基づく遠隔人間ロボットインタラクションを活用した機嫌よく操作できるロボット学習

Scalable Dexterous Robot Learning with AR-based Remote Human-Robot Interactions

arXiv:2602.07341v1 Announce Type: new 本文では、拡張性とAR(拡張現実)に基づく遠隔人間ロボットインタラクションを活用した機嫌よく操作できるロボットアーム・ハンドシステムの操業学習に焦点を当てており、専門家のデモンストレーションデータを収集して効率向上を図る。このシステムにおいて、一般の操作タスクの問題に対処するための統一された枠組みを提案する。具体的には...

Original: arXiv:2602.07341v1 Announce Type: new Abstract: This paper focuses on the scalable robot learning for manipulation in the dexterous robot arm-hand systems, where the remote human-robot interactions v...

arxiv_cs_lg 2026/2/10

Large Language Model における可視制御した価値对齐の手法:ニューロンレベル編集を通じたアプローチ

Controllable Value Alignment in Large Language Models through Neuron-Level Editing

arXiv:2602.07356v1 Announce Type: new 要約:大規模言語モデル (LLM) が人間の行動や意思決定への影響が拡大したことにより、人間の価値観と LLM を对齐させることはますます重要になっています。しかし、既存のステアリングに基づく对齐手法は制御性の限界に直面しており、目標値を操作する際に意図せず他の非目標値が活性化される現象が生じがちです。この限界を定量的に特...

Original: arXiv:2602.07356v1 Announce Type: new Abstract: Aligning large language models (LLMs) with human values has become increasingly important as their influence on human behavior and decision-making expa...

arxiv_cs_lg 2026/2/10

UTOPIA: 非学習可能な表形式データの達成のための結合されていないショートカット埋め込み

UTOPIA: Unlearnable Tabular Data via Decoupled Shortcut Embedding

arXiv:2602.07358v1 発表タイプ:新規 要約:非学習可能なサンプル(UE)は、私有の視覚データを許可されていないモデルトレーニングから保護するための実用的なメカニズムとして登場しました。しかし、この保護を表形式データに拡張することはいささか困難です。金融や医療分野の表形式データは極めて機微にすぎますが、既存の UE メソッドは表形式の特性が数値的制約とカテゴリカル制約を混在させ、サ...

Original: arXiv:2602.07358v1 Announce Type: new Abstract: Unlearnable examples (UE) have emerged as a practical mechanism to prevent unauthorized model training on private vision data, while extending this pro...

arxiv_cs_lg 2026/2/10

非線形塑性解析における効率的なフミ・インフォームドハイパグラフニューラルネットワーク

FEM-Informed Hypergraph Neural Networks for Efficient Elastoplasticity

arXiv:2602.07364v1 Announce Type: new 要旨:図式ニューラルネットワーク(GNN)は、スースオペレーターと非構造化離散化に固有に適合するため、計算力学における物理情報付与機械学習の有望なパラダイムとなっています。離散的な物理損失と階層型ディープラーニングニューラルネットワーク(HiDeNN)の構築を契機として、有限要素(FEM)計算をノードおよびガウス点上に直...

Original: arXiv:2602.07364v1 Announce Type: new Abstract: Graph neural networks (GNNs) naturally align with sparse operators and unstructured discretizations, making them a promising paradigm for physics-infor...

arxiv_cs_lg 2026/2/10

プライバシー付き決定リストの学習と微分プライバシーに基づく Winnow 法

Privately Learning Decision Lists and a Differentially Private Winnow

arXiv:2602.07370v1 発表 タイプ:新規 要約:我々は、PAC モデルおよびオンラインモデルにおける決定リストの学習と大境界半空間の学習という古典的問題において、新たな微分プライバシーアルゴリズムを提供します。PAC モデルにおいては、非プライバシー付きアルゴリズムと比べて最小のサンプルオーバーヘッドで決定リストを学習する計算効率的なアルゴリズムを提供します。オンラインモデルにおい...

Original: arXiv:2602.07370v1 Announce Type: new Abstract: We give new differentially private algorithms for the classic problems of learning decision lists and large-margin halfspaces in the PAC and online mod...