2031 articles

arxiv_cs_ai 2026/2/10

TextOp: リアルタイムのインタラクティブなテキスト駆動式 humanoidロボット動作生成と制御

TextOp: Real-time Interactive Text-Driven Humanoid Robot Motion Generation and Control

最近の先進的な humanoid の全体の動作跟踪は、実際のハードウェアで多様で高度に統合された動態を実行できています。しかし、既存のコントローラーは、ユーザーの意図が変わるときに制限がある定型的な動きパススケジュールと連続的で他人のテレオペレートによるコンピューティングを通常にドライブされています。これらは、ユーザーアンティンエンティが変わるときに柔軟性がないため、この研究はどのようにUnive...

Original: arXiv:2602.07439v1 Announce Type: cross Abstract: Recent advances in humanoid whole-body motion tracking have enabled the execution of diverse and highly coordinated motions on real hardware. However...

arxiv_cs_ai 2026/2/10

プルリクエストによるリポジトリレベルのコード編集訓練

Pull Requests as a Training Signal for Repo-Level Code Editing

リポジトリレベルのコード編集は、複合的な依存関係を理解し、大きなコーディングベースで複雑な多ファイル変更を実行するモデルに必要とされます。最近のスウェーバンクでの進歩には複雑なアジェントサフカスタールが重視されていますが、これについて明確にしていませんでしたのは、訓練信号を通じてどれだけこの能力を持つことが内部化できるかです。それを解決するために、クリーン・プルリクエスト(Clean-PR)という...

Original: arXiv:2602.07457v1 Announce Type: cross Abstract: Repository-level code editing requires models to understand complex dependencies and execute precise multi-file modifications across a large codebase...

arxiv_cs_ai 2026/2/10

VividFace: humanoidロボットにおけるリアルタイムかつリアリスティックな顔表現影付けシステム

VividFace: Real-Time and Realistic Facial Expression Shadowing for Humanoid Robots

humanoidの顔表現の影付けはロボットがリアルタイムで人間の顔表情を再現できる機能で、擬似の人間や感情を含む humanoidロボット及び人間とロボットとの交流において重要です。 現代の進歩する humanoidの顔表現の再現にはまだ制限があり、既存の方法ではリアルタイム性やリアリスティックさを両立することはできません。 クリアな情報に基づいた推論設計が不十分であり、異なる画像ソース間での細...

Original: arXiv:2602.07506v1 Announce Type: cross Abstract: Humanoid facial expression shadowing enables robots to realistically imitate human facial expressions in real time, which is critical for lifelike, f...

arxiv_cs_ai 2026/2/10

MemPot:セクショナル確率比率検証を介したメモリの保護に向けたハーネス化フレームワーク

MemPot: Defending Against Memory Extraction Attack with Optimized Honeypots

大規模言語モデル (LLM) エージ ents が複雑な目標指向のタスクを処理するには、外部と内部のメモリシステムを使用し、しかしこれがセクショナル・確率比率検証攻撃に容易にさらされることから、そのセキュリティに対する効果的な防御手段は存在しません。 この論文では、セクショナル・確率比率検証攻撃を防ぐための論理的に確かめた防衛フレームワークである MemPot を提案しています。 2 阶段の最適化...

Original: arXiv:2602.07517v1 Announce Type: cross Abstract: Large Language Model (LLM)-based agents employ external and internal memory systems to handle complex, goal-oriented tasks, yet this exposes them to ...

arxiv_cs_ai 2026/2/10

グラフの統合適応をホモフィリオーギーなしで実現する

Graph Domain Adaptation via Homophily-Agnostic Reconstructing Structure

グラッドゥアルダプタンテーション(GDA)は、ラベルが少ない問題に対処する知識転送技術です。しかし現在のGDAメソッド通常的に源グラフとターゲット・グラフがホモフィリオを示していることを仮定しておりこれは不適応であることが発見されていました。一方、ターゲットグラフでのラベルの欠如によりそのホモフィリオレベルの評価は容易ではありません。我々の提案はこれらの問題に対処するための新しいホモフィリオーグッ...

Original: arXiv:2602.07573v1 Announce Type: cross Abstract: Graph Domain Adaptation (GDA) transfers knowledge from labeled source graphs to unlabeled target graphs, addressing the challenge of label scarcity. ...

arxiv_cs_ai 2026/2/10

学習を自審査することで、言語モデルのリテラシーよりも高い理由力を持つ

Learning to Self-Verify Makes Language Models Better Reasoners

最近の大きな言語モデル(LLM)は複雑なタスクで promisingな反復的な道筋を生成するのに強力な能力があります。しかし、LMMは自己答の確認については非常に弱く、自作の能力とその他の方向性の間には恒常的に能力の不均等が存在します。この著者は、これらの違いについて深度ある探究を行っており、各モデルが同じタスクでも生成力を向上させることでその自己検証は改善しなかったという結果を明らかにしています...

Original: arXiv:2602.07594v1 Announce Type: cross Abstract: Recent large language models (LLMs) achieve strong performance in generating promising reasoning paths for complex tasks. However, despite powerful g...

arxiv_cs_ai 2026/2/10

大規模言語モデルの評価に関するLDRの違反検出における可能性

Evaluating Large Language Models for Detecting Architectural Decision Violations

アーキテクチャ・デシジョンレコード(ADR)はソフトウェアアーキテクチャの品質保護に重要な役割を果たしていますが、プロジェクトが適切なシステムドキュメンテーションと自動化された検出メカニズムを持たない限り、多くの決定違反は注意されていません。最近の大型言語モデル(LLM)の進歩により、大規模なアーキテクチャ・リASONが単一化されることで新たな可能性が開かれました。私たちの研究では、オープンソース...

Original: arXiv:2602.07609v1 Announce Type: cross Abstract: Architectural Decision Records (ADRs) play a central role in maintaining software architecture quality, yet many decision violations go unnoticed bec...

arxiv_cs_ai 2026/2/10

Agent-Fence:深層研究エージェントのセキュリティ脆弱性をマッピング

Agent-Fence: Mapping Security Vulnerabilities Across Deep Research Agents

Large language modelsは increasingly deep agentsとして展開され、計画、persistentな状態を維持し、外部ツールを呼び掛けることにより安全ファイアウォールからシフトする*違反*が変更される。私たちは**AgentFence**という、アーキテクチャ重視のセキュリティ評価を導入することで14の信頼限界の攻撃クラスを定義し、その breach の検出は...

Original: arXiv:2602.07652v1 Announce Type: cross Abstract: Large language models are increasingly deployed as *deep agents* that plan, maintain persistent state, and invoke external tools, shifting safety fai...

arxiv_cs_ai 2026/2/10

AIxCC:DARPAのAI暗号技術チャレンジ:コンペティション設計、アーキテクチャ、および学んだこと

SoK: DARPA's AI Cyber Challenge (AIxCC): Competition Design, Architectures, and Lessons Learned

DARPA の AI 暗号技術チャレンジ(AIxCC)は、特に大規模言語モデルを活用してリアルワールドのオープンソースソフトウェアにおける脆弱性を特定と修復し得る完全自動的な暗号論理システム(CRSs)を開発するための大規模なコンペティションにあたります。 この記事は、AIxCCを最初となる全体的な分析を行っています。設計文書、サブルーチンコード、実行トレース、また組織者と競争チームとの議論を含め...

Original: arXiv:2602.07666v1 Announce Type: cross Abstract: DARPA's AI Cyber Challenge (AIxCC, 2023--2025) is the largest competition to date for building fully autonomous cyber reasoning systems (CRSs) that l...

arxiv_cs_ai 2026/2/10

グリーンネスのドライバーをマッピング: MODISの植被指数の空間変数選択

Mapping Drivers of Greenness: Spatial Variable Selection for MODIS Vegetation Indices

環境因子が vegetation condition とどのように関連しているかを理解することが、空間的な変動回帰モデルに基づく研究において重要であり、しかし、それらの各予測子に対して別の偏置表面をそれぞれプロットすることは、無関係な多くの予測子が存在する場合に汚染されたパターンを生み出し、解釬性が悪いことがあります。MODIS の vegetation index 研究により、スペクトラバンド、...

Original: arXiv:2602.07681v1 Announce Type: cross Abstract: Understanding how environmental drivers relate to vegetation condition motivates spatially varying regression models, but estimating a separate coeff...

arxiv_cs_ai 2026/2/10

HypRAG:ハイパー希薄の密集検索によるリテラル・アーカージュエニミズジェネレート

HypRAG: Hyperbolic Dense Retrieval for Retrieval Augmented Generation

エンティティ間の文脈的類似性を維持できない自然言語は、次元的な構造から大きく特化したトピックまでがあり、その事実に欧幾理会議空間での専門家行列が対応できていないことが明らかになりました。この難点に対するアプローチとして、我々は次元曲率スケールのLorentzモデルを適用し、HyTE-FHとHyTE-Hという2つの異なるモデル構造を開発しました。HyTE-FHは完全にハイパー空間内の変換器、そしてH...

Original: arXiv:2602.07739v1 Announce Type: cross Abstract: Embedding geometry plays a fundamental role in retrieval quality, yet dense retrievers for retrieval-augmented generation (RAG) remain largely confin...

arxiv_cs_ai 2026/2/10

産生的な思考再ランク

Generative Reasoning Re-ranker

最新の研究では大規模な言語モデル(LLMs)が推奨システムの新しいパラダイムとして検討されており、それを採用する理由はLLMsがスケーラビリティと世界の知識に富んでいることです。しかし、現在進行中の工作には以下の3つの基本的な制限があります。 (1) 最も効力が凝らされた努力は返却およびランク付け、そしてその再ランクリングフェーズ、最終推奨に refinining を目指す重要なステップを取り除い...

Original: arXiv:2602.07774v1 Announce Type: cross Abstract: Recent studies increasingly explore Large Language Models (LLMs) as a new paradigm for recommendation systems due to their scalability and world know...

arxiv_cs_ai 2026/2/10

まだマニュアル? データ系言語ベースのリーダー支援システムを用いた自動化されたリーラント設定

Still Manual? Automated Linter Configuration via DSL-Based LLM Compilation of Coding Standards

コーディング基準は、チーム間とプロジェクト間で継続的な高い品質のコード保持に不可欠です。Linterは、これらの基準をデベロッパが実行するためのツールを提供します。しかし、手動のリーラント設定は複雑で専門知識が求められるものであり、そしてプログラミング言語、コーディング基準、リーダントの多様性と変化により、再配置作業があきらかに管理困難になります。我々は、基準に対する自動的なリーラント設定の生成を...

Original: arXiv:2602.07783v1 Announce Type: cross Abstract: Coding standards are essential for maintaining consistent and high-quality code across teams and projects. Linters help developers enforce these stan...

arxiv_cs_ai 2026/2/10

大量言語モデルのエマージング構造表現が、大規模言語モデルにおけるコンセプスの在地推論を柔軟化する

Emergent Structured Representations Support Flexible In-Context Inference in Large Language Models

> 大規模言語モデル(LLMs)は、人間のような推理を示す現象的行動を持つことが証明されています。最近の研究では、これらのモデル内に存在する構造化された、人間的な概念的な表現が提示されていますが、それがどのように推理に対して機能的に関与しているのかについて詳細な理解がまだ確立されていませんでした。ここには、LLMsのための在地推論処理を調査するために中盤から後期に至る層におけるコンセプスの内在表現...

Original: arXiv:2602.07794v1 Announce Type: cross Abstract: Large language models (LLMs) exhibit emergent behaviors suggestive of human-like reasoning. While recent work has identified structured, human-like c...

arxiv_cs_ai 2026/2/10

ソウルエックス・サンガー:高品質の零奏鸣式音声合成向付け

SoulX-Singer: Towards High-Quality Zero-Shot Singing Voice Synthesis

最近では、スピーキング合成に対して急速な進歩が見られましたが、オープンソースのサウンドシンクス(SVS)システムは、特に実用的な配布に関して面倒くさくなっています。この報告では、サウルエックス・サインガーを紹介します。これは、具体的な配布に焦点をあてた高い品質のオープンソース SVS システムです。 ソウルエックス・サインガーは、シングリーガenerationを制約する、メイドゥミーユ(MIDI)...

Original: arXiv:2602.07803v1 Announce Type: cross Abstract: While recent years have witnessed rapid progress in speech synthesis, open-source singing voice synthesis (SVS) systems still face significant barrie...

arxiv_cs_ai 2026/2/10

修剪は協力ゲーム:大規模言語モデルの層貢献推定に統計的代理体を用いたアプローチ

Pruning as a Cooperative Game: Surrogate-Assisted Layer Contribution Estimation for Large Language Models

大きな言語モデル(LLMs)が様々なタスクで優れたパフォーマンスを示してきたにもかかわらず、リアルワールドのシナリオでの実装は、計算負荷が高いことをまだ制約されています。層別削減という、労力を削减するための一般的に用いられる統合戦略では、この問題が一部解決されています。しかし、これまでの方法は静的なヒューリスティックルールに依存していますし、層間の相互作用に関する事情は考慮しませんので、この削減プ...

Original: arXiv:2602.07804v1 Announce Type: cross Abstract: While large language models (LLMs) demonstrate impressive performance across various tasks, their deployment in real-world scenarios is still constra...

arxiv_cs_ai 2026/2/10

SAGE: スケーラブルAI管治と評価

SAGE: Scalable AI Governance & Evaluation

大型規模の検索システムにおける関連性の評価は、複雑なリソース制約のある人間の監視と生産的なシステムの高効率を求められた間で根本的に限られる可能性があります。一般的にはプロキシのような介入代理者または疎らな手動レビューが使用されていますが、これらは高レベルの影響力のある関連性の失敗を完全にカプセル化できないことが多いです。我々は"SAGE"(スケーラブルAI管治と評価)ーー高品質の人間産品の判断をス...

Original: arXiv:2602.07840v1 Announce Type: cross Abstract: Evaluating relevance in large-scale search systems is fundamentally constrained by the governance gap between nuanced, resource-constrained human ove...

arxiv_cs_ai 2026/2/10

注視する:神経発達の学習エッセンスを整える

Orchestrating Attention: Bringing Harmony to the 'Chaos' of Neurodivergent Learning States

適応的な学習システムは、パフォーマンス指標に基づいてコンテンツの提供を最適化しますが、アスペルガーや自閉質など、神経異常性のあるリラックスする生徒たちのダイナミックな注視の変動を取り込みません。我々はAttentionGuardフレームワークを開発し、プライバシーを保護しながら行動信号から焦点の状態を検出し、結果的にインターフェース要素をそれに応じて調整します。私たちのアプローチは、ADHDのエフ...

Original: arXiv:2602.07865v1 Announce Type: cross Abstract: Adaptive learning systems optimize content delivery based on performance metrics but ignore the dynamic attention fluctuations that characterize neur...

arxiv_cs_ai 2026/2/10

リエディング リタイベーシング・ドーパイン・オブ・サービス: LLM のための セッショナル スキーマの攻撃ではなく、モデル自体を攻撃しない

Rethinking Latency Denial-of-Service: Attacking the LLM Serving Framework, Not the Model

大規模言語モデル(Large Language Models, LLMs)には、新たなと非常に重要で懸念される脅威である遅延攻撃が存在します。LLMの推論は一般的に高コストなため、僅かでも遅くなることで稼働コストやセキュリティリスクが急増します。 最近では、アルゴリズムの複雑さを狙う最悪出力を誘発する攻撃について数多くの研究が行われてきました。しかし、我々はこの典型的なアルゴリズムの遅延攻撃に対す...

Original: arXiv:2602.07878v1 Announce Type: cross Abstract: Large Language Models face an emerging and critical threat known as latency attacks. Because LLM inference is inherently expensive, even modest slowd...

arxiv_cs_ai 2026/2/10

深層学習に基づく可変長フィードバック コーダ

Deep Variable-Length Feedback Codes

学習されたソリューション自体は、基本的に限界があります。彼らは固定のブロックの長さを使用し、高度なロスが発生する高いレートでパフォーマンスを低下させ、フィードバックの適応可能性の最大限に活用することができません。この論文は「深層可変幅広いフィードバック」(DeepVLF)コーディングを紹介します。これは、フィードバックによって伝送長がダイナミックに調整される柔軟なコーディングフレームワークです。我...

Original: arXiv:2602.07881v1 Announce Type: cross Abstract: Deep learning has enabled significant advances in feedback-based channel coding, yet existing learned schemes remain fundamentally limited: they empl...