2031 articles

arxiv_cs_ai 2026/2/10

freeのリセット:マーフィー・オーリンズだけにとらわれる推理モデルからの脱出

Free(): Learning to Forget in Malloc-Only Reasoning Models

Reasoningモデルは問題解決を強化するためのテスト時のコンピュートをスケールアップしますが、彼らには大きな課題があ Meets:思考のトカゲがしばしばパフォーマンスを低下させることなく改善しないことがあります。これは、標準的なLLMsが「マーフィー・オーリンズ」のみにとらわれるエンジンであるという根本的な構造的な欠陥に基づいています:これらのモデルは常に有効かつ無効なステップを同一直線で累...

Original: arXiv:2602.08030v1 Announce Type: new Abstract: Reasoning models enhance problem-solving by scaling test-time compute, yet they face a critical paradox: excessive thinking tokens often degrade perfor...

arxiv_cs_ai 2026/2/10

グラフを駆使した深層 reinforcement learning の応用:マルチオブジェクト付き並行マシンシミュレーション

Graph-Enhanced Deep Reinforcement Learning for Multi-Objective Unrelated Parallel Machine Scheduling

複雑な出番、セットアップ時間の要素が含まれる不受影響並列機器のスケジューリング上の問題(UPMSP)を対象に、この研究では多目的最適化を達成するためDeep reinforcement learning技術を使用しています。PPOプロキシ政策最適化とGNN(グラフニューラルネットワーク)が深層の学習を行い、その複雑な状態であるジョブやマシン、セットアップ時間を把握します。多目的報酬関数を導くことで...

Original: arXiv:2602.08052v1 Announce Type: new Abstract: The Unrelated Parallel Machine Scheduling Problem (UPMSP) with release dates, setups, and eligibility constraints presents a significant multi-objectiv...

arxiv_cs_ai 2026/2/10

懐疑的な生物データの保護:アセローラ記念大会において

Securing Dual-Use Pathogen Data of Concern

生物学に関するAIモデルを作成するためには、重要な入力要素が必要です。これらのモデルは、遺伝子序列、構造、画像と機能などの大量のデータを訓練に入れられます。トレーニングされたモデルに使用されるデータタイプが、そのモデルが持つ能力にも密接に関連しています。これは特に生物安全保障上の懸念のある能力に関与するためです。そのため多くの生物学的研究者が、アセローラ記念大会で開催されました50回目の大会での発...

Original: arXiv:2602.08061v1 Announce Type: new Abstract: Training data is an essential input into creating competent artificial intelligence (AI) models. AI models for biology are trained on large volumes of ...

arxiv_cs_ai 2026/2/10

社会的な強化学習における目的分離:自己中心的評価者による正解の回復

Objective Decoupling in Social Reinforcement Learning: Recovering Ground Truth from Sycophantic Majorities

現代のAIの統一戦略は、物凄く脆弱な仮定を持っています。それは、人間のフィードバックが騒動していても、基本的には真実である信号だとするものです。この記事では、強化学習(RL)において「4号信仰」を指摘します。リラックスした環境下では、「4号信仰」は正当と示されます。しかし、社会的な環境では評価者が自己偏愛的、怠け者としてもうろており、または敵対的に行動することもあります。したがって、通常のRLで訓...

Original: arXiv:2602.08092v1 Announce Type: new Abstract: Contemporary AI alignment strategies rely on a fragile premise: that human feedback, while noisy, remains a fundamentally truthful signal. In this pape...

arxiv_cs_ai 2026/2/10

Glow: 行動アリゲーティブ・ボディー・ビゼフデクテイシャツ・コンシェルジュとしての生成AIをpoweredする精神療法技能支援システムに対するリスク probingと実現可能性テスト

Initial Risk Probing and Feasibility Testing of Glow: a Generative AI-Powered Dialectical Behavior Therapy Skills Coach for Substance Use Recovery and HIV Prevention

背後にある背景: HIVおよび薬物使用は、共通の心理的ダイナミクスに関与し、 impulsivity そして 避けた対処法を表す。 行動アリゲーティブ・ボディー・ビゼフデクテイシャツ (DBT) をターゲットとしていますが、伸縮性の課題があり拡大が難しくなっています。 生成人工知能 (GenAI) はこれらのメカニズムを個人向けに personalize して DBT コーチングをデリバリしことが...

Original: arXiv:2602.08121v1 Announce Type: new Abstract: Background: HIV and substance use represent interacting epidemics with shared psychological drivers - impulsivity and maladaptive coping. Dialectical b...

arxiv_cs_ai 2026/2/10

RECUR: 対象の再帰事前分布を引き金とした反映展開を利用してリソースを消費する攻撃

RECUR: Resource Exhaustion Attack via Recursive-Entropy Guided Counterfactual Utilization and Reflection

大規模な観定モデル(LRMs)は複雑なタスクに対応するために推理を使用します。このような明確な観定が詳細で長い対象と呼ばれる幅広い文脈の長さを必要とするため、大幅にリソース消費量が上昇します。前のワークではアドバンザントジェイストエンダードされた入力はデッドスペースと冗長な観定の進行プロセスを開始し、LRMsに対してリソース圧力を引き金にするという問題を暴露しました。ですが、その中での特定のロジッ...

Original: arXiv:2602.08214v1 Announce Type: new Abstract: Large Reasoning Models (LRMs) employ reasoning to address complex tasks. Such explicit reasoning requires extended context lengths, resulting in substa...

arxiv_cs_ai 2026/2/10

弱音だけで学習:弱い代理によって強い代理人がより強化される

Weak-Driven Learning: How Weak Agents make Strong Agents Stronger

オーオXIV:2602.08222v1の発表: 新タイプ:新しい情報共有: 大規模な言語モデルの性能向上に訓練を続けている中で、モデルが非常に自信を持つと、新たな訓練はますますリターンの削減に見舞われる不自由感のブロックバスターとして、我々はしばしば現役方法が目標の予測を強化しながら、モデルの自己歴史中の弱い状態の通知情報信号は模倣されているという観察と見なされるため、存在する。WMSS(弱い代理...

Original: arXiv:2602.08222v1 Announce Type: new Abstract: As post-training optimization becomes central to improving large language models, we observe a persistent saturation bottleneck: once models grow highl...

arxiv_cs_ai 2026/2/10

Pts-snn: 一言調節時間変動神経ネットワークを用いた、効率的な会話感情認識

PTS-SNN: A Prompt-Tuned Temporal Shift Spiking Neural Networks for Efficient Speech Emotion Recognition

会話感情認識(SER)は、人間とコンピュータのインタラクションに広く活用されていますが、伝統的なモデルの高い計算コストがリソース制限されたエンジンデバイス上での実装を阻んでいる。シピン神経ネットワーク(SNNs)は、そのイベントに基づく性質によってエネルギー効率のある代替案でありながら、時間変動型の自身監督学習(SSL)の表現と組み合わせるのは困難です。分布不matchにより、高ダイナミックレンジ...

Original: arXiv:2602.08240v1 Announce Type: new Abstract: Speech Emotion Recognition (SER) is widely deployed in Human-Computer Interaction, yet the high computational cost of conventional models hinders their...

arxiv_cs_ai 2026/2/10

G-LNS:L関man基底の自動ヒューリスティックデザイン向けに拡張された大型近傍探索法

G-LNS: Generative Large Neighborhood Search for LLM-Based Automatic Heuristic Design

大きな言語モデル(LLM)は、最近、自動的な最適化アルゴリズムの設計において Promise を示した。しかし、既存の取り組みは一般的には、構築的優先順位ルールやパラメトリックな近接探索ガイドなどから、AHD を構成しようとすることであり、固定されたヒューリスティックの形式を制限するため、最適化空間は固定的に制限されています。 これらのお手本では、深くのローカルオペレーションで難問を避け逃げるとい...

Original: arXiv:2602.08253v1 Announce Type: new Abstract: While Large Language Models (LLMs) have recently shown promise in Automated Heuristic Design (AHD), existing approaches typically formulate AHD around ...

arxiv_cs_ai 2026/2/10

SynthAgent: 多数代理システムフレームワークによる患者のモデリング -- オベステジーとメンタルヘルスの複合病状への事例

SynthAgent: A Multi-Agent LLM Framework for Realistic Patient Simulation -- A Case Study in Obesity with Mental Health Comorbidities

高度に信頼性のある患者を模擬することは、複雑な疾患の研究に道を開く有効的な手段であり、実世界データの離散化、偏見、プライバシーを制約する問題によって支えられないリアルタイムデータへの対応もできます。本研究では、 obesity患者を含む複合性病状(うつ病、神経症、社交恐怖、暴食症等)に特化した新しい多数代理システム(MAS)フレームワークであるSynthAgentについて紹介しました。Clinic...

Original: arXiv:2602.08254v1 Announce Type: new Abstract: Simulating high-fidelity patients offers a powerful avenue for studying complex diseases while addressing the challenges of fragmented, biased, and pri...

arxiv_cs_ai 2026/2/10

Puda:プライベートなユーザーデータエージェントによるユーザー主権とプライバシープロテクト

Puda: Private User Dataset Agent for User-Sovereign and Privacy-Preserving Personalized AI

個人情報が大きなプラットフォーム提供者(検索エンジン、ソーシャルネットワーキングサービス、電子 commerce を含む)によって中央化され、その結果、ユーザーの主権が圧縮されたエコシステムをつくり出し、サービス間でデータ利用に制限がかかり、ユーザー権利が影が成りつつある。一方で、Large Language Model (LLM) 基盤のエージェントが急速な収束によりハイパーオリエンテッドサービ...

Original: arXiv:2602.08268v1 Announce Type: new Abstract: Personal data centralization among dominant platform providers including search engines, social networking services, and e-commerce has created siloed ...

arxiv_cs_ai 2026/2/10

形式化されたLLM(agent)設計を Toward: 构件構造モデルと論理的なダイナミクス解析の適用

Toward Formalizing LLM-Based Agent Designs through Structural Context Modeling and Semantic Dynamics Analysis

現在の大規模言語モデル(LLM)での研究は分割されています:コンセプチュアルなフレームワークや手法論的原則に関する議論が、実装詳細に頻繁に融合され、読者と著者が混乱を招く複雑さを増しています。我々は,これらの分断の根元として、構文構造から点検と比較するLLMアgentの正式モデルの欠如を指摘しており、それを補うためには構築されたモデルが必要です。そのためには exttt{構造的なコンテクスト・モ...

Original: arXiv:2602.08276v1 Announce Type: new Abstract: Current research on large language model (LLM) agents is fragmented: discussions of conceptual frameworks and methodological principles are frequently ...

arxiv_cs_ai 2026/2/10

Vibe-オートメーションの自動化:ジェネレーティブAIの時代におけるコンピューターサイエンスの積極的な教育フレームワーク

The Vibe-Automation of Automation: A Proactive Education Framework for Computer Science in the Age of Generative AI

ジェネレーティブ人工知能(GenAI)は、计算机科学の基礎的な仮定に対し質的的な知識変化を示しています。機械学習が「自動のオートメーション」のようにとらえられていたところ、生成型IAでは、場面固有の意味論、コン textual context Semantic、システムストイクシー性を尊重しながら作動するためです。この文書は、ビーキー・オートメーションという概念を通じてこの変化に着眼しています。主...

Original: arXiv:2602.08295v1 Announce Type: new Abstract: The emergence of generative artificial intelligence (GenAI) represents not an incremental technological advance but a qualitative epistemological shift...

arxiv_cs_ai 2026/2/10

ヴィジョン言語モデルにおける権化現象

Moral Sycophancy in Vision Language Models

視覚的理解に基づいた話題を扱うVLM(Vision-Language Model)は、ユーザーの意見に近づきやすい傾向があります。特に、論理的または事実上の正確さを損なったりもします。他の研究で権化現象について解説されている一方で、それは公正や倫理的基準に基づく視覚的な決定をどのように影響付けるかについて十分に理解されていませんでした。そのため、私たちのチームは先駆的なVLM内の権化現象に関するシ...

Original: arXiv:2602.08311v1 Announce Type: new Abstract: Sycophancy in Vision-Language Models (VLMs) refers to their tendency to align with user opinions, often at the expense of moral or factual accuracy. Wh...

arxiv_cs_ai 2026/2/10

誰が報酬を受ける資格があります? SHARP: 多-Agent ディスプレイの信用分配 Optimizer

Who Deserves the Reward? SHARP: Shapley Credit-based Optimization for Multi-Agent System

Large Language Models (LLMs)を外部ツールと連携するマルチエージェントシステムは、複雑で大きな問題を分解して解決するために新しいパラダイムとして素晴らしい可能性があります。しかしこれらのシステムを訓練するのは有名に困難です。信用分配の課題に対する理解が曖昧で、何であるかが成功や失敗からどれだけ影響を及ぼすかによっては特定できません。既存の方法には収まらず稀なかまたは全般的...

Original: arXiv:2602.08335v1 Announce Type: new Abstract: Integrating Large Language Models (LLMs) with external tools via multi-agent systems offers a promising new paradigm for decomposing and solving comple...

arxiv_cs_ai 2026/2/10

機能レベルの検証による因果推定

Effect-Level Validation for Causal Discovery

因果の発見は、ユーザーファACINGな介入の効果を推測するための大規模なテレメtriesデータでincreasingly忦くており、その有効性がフィードバック駆動システム内での強力な自己選択に適しているかは不明です。この論文では、発見されたグラフを構造的事実と捉えて、適合性、安定性和偽証だけでなく、それらを識別可能性、安定性和偽証を評価するための効果重視、合意優先フレームワークを提案します。客観的...

Original: arXiv:2602.08340v1 Announce Type: new Abstract: Causal discovery is increasingly applied to large-scale telemetry data to estimate the effects of user-facing interventions, yet its reliability for de...

arxiv_cs_ai 2026/2/10

OPE: Reinforcement Learningによる概要を導く探索を通じて並行的思考を突破する

OPE: Overcoming Information Saturation in Parallel Thinking via Outline-Guided Path Exploration

複雑な問題に挑むための新しいパラダイムである並行的考え方は、大規模な推理モデル(LRM)の中で Emerged したとされています。 最近の方法は、再帰 Reinforcement Learning (RL) を用いた上で、 supervied fine-tuning の制限に対する計算資源および有効性を改善することを目指しています。 ただし、多くの既存の研究では、特に最適化が集中している段階にの...

Original: arXiv:2602.08344v1 Announce Type: new Abstract: Parallel thinking has emerged as a new paradigm for large reasoning models (LRMs) in tackling complex problems. Recent methods leverage Reinforcement L...

arxiv_cs_ai 2026/2/10

タイムスリープ的な知性グラフの進化モデル向上

Towards Better Evolution Modeling for Temporal Knowledge Graphs

時系列知性グラフ (TKGs)は、人間によって変化する知識を構造的に保存しています。最近の研究では、TKGsの進化パターンを学習するためのモデルを開発することで、将来的な事実予測に達成しているとされています。たとえばYAGOデータセット上でのHits@10スコアはほぼすべての値が0.9を超えるほどです。しかし、現時点で使用されているベンチマークは簡単に引き渡されてしまう工夫を誘発します。既存のテス...

Original: arXiv:2602.08353v1 Announce Type: new Abstract: Temporal knowledge graphs (TKGs) structurally preserve evolving human knowledge. Recent research has focused on designing models to learn the evolution...

arxiv_cs_ai 2026/2/10

あなたの推論モデルは、思考を絶つタイミングを暗黙的に知っているのか?

Does Your Reasoning Model Implicitly Know When to Stop Thinking?

最近の大型推論モデル(LRM)の発展により、複雑な推理タスクの能力が飛躍的に向上し、長いリーチングチェーン(CoTs)が頻繁に使用されました。しかし、この手法は通常より大きな冗長性を引き起こし、計算効率とリアルタイム応用での遅延をもたらします。最近の研究では、理由チェーンの長さはしばしば正確さとは関連なく、時に精度自体に悪影響を与えることが示されました。さらに深い分析により、LRMが思考を一時的に...

Original: arXiv:2602.08354v1 Announce Type: new Abstract: Recent advancements in large reasoning models (LRMs) have greatly improved their capabilities on complex reasoning tasks through Long Chains of Thought...

arxiv_cs_ai 2026/2/10

SCOUT-RAG:分散化とアクセス制限のある分布的分野での効率的な統合追跡

SCOUT-RAG: Scalable and Cost-Efficient Unifying Traversal for Agentic Graph-RAG over Distributed Domains

Graph-RAGは、構造化された知識を使用してLLMの推論を改善しましたが、一般的なデザインでは中央的な知見グラフに依存しています。分散とアクセス制約のある設定(例:病院や multinational オrganizations)において、再取得はrelevant domain を選択し、適切な軌道深さを選択しないと全格の視覚あるいは完全探査検索が不可能になります。これを解決するために、SCOU...

Original: arXiv:2602.08400v1 Announce Type: new Abstract: Graph-RAG improves LLM reasoning using structured knowledge, yet conventional designs rely on a centralized knowledge graph. In distributed and access-...