2031 articles

arxiv_cs_ai 2026/2/10

進化計算における再現性評価:人間による評価とLLMに基づいた検討

Assessing Reproducibility in Evolutionary Computation: A Case Study using Human- and LLM-based Assessment

解析的文書のコンテンツと関連するコードリポジトリから自動的に可視性を評価するためにREPROビンティクシステム(REproducibility Checklist Automation Pipeline) を提案しました。我々の分析により、発表した論文は平均で0.62の完全性スコアを達成し、投稿書の自己に対して追加性について36.90%のものが提供しており、これに対して人工評価家の相当な統一(Co...

Original: arXiv:2602.07059v1 Announce Type: cross Abstract: Reproducibility is an important requirement in evolutionary computation, where results largely depend on computational experiments. In practice, repr...

arxiv_cs_ai 2026/2/10

オープンソースソフトウェア開発における人工知能:継続可能な基盤の架け橋

Artificial Intelligence in Open Source Software Engineering: A Foundation for Sustainability

オープンソースソフトウェアは現代のデジタルインフラを基礎に構築していますが、この協業空間は多数の重要なケースにおいて、十分な貢献が確保できないまま進められています。その背景にあるAIが問題解決にどのように活用されるかについて、このレビューが批判的な挑戦的かつ専門的分野で研究を行うことを通じて調査しています。特に、貢献者のエンゲージメントを維持し、資金確保、コード品質とセキュリティの確保、コミュニテ...

Original: arXiv:2602.07071v1 Announce Type: cross Abstract: Open-source software (OSS) is foundational to modern digital infrastructure, yet this context for group work continues to struggle to ensure sufficie...

arxiv_cs_ai 2026/2/10

Calm: 適切性を条件にし、小さな注意ベクトルのsparseな対応が大きな音声語料モデルを強化する

CALM: Class-Conditional Sparse Attention Vectors for Large Audio-Language Models

大規模な音声・言語モデル (LALMs) は、何もなく新たなタスクで強力なゼロショット能力があり、たとえば音声問答や抽象的な reasoning のように多くの後処理タスクにおいて。しかし、特定の discriminate ポイントでは(例として)音声分類に向かいがちである彼らにはまだ引き続き後進があります。最近の人気のある研究は、大型の LALM で見られる小さな注意ヘッドを組み合わせることで、...

Original: arXiv:2602.07077v1 Announce Type: cross Abstract: Large audio-language models (LALMs) exhibit strong zero-shot capabilities in multiple downstream tasks, such as audio question answering (AQA) and ab...

arxiv_cs_ai 2026/2/10

Coderciruit: アイテム生成コードの正しさを推論するためのLLMからの_attributableグラフ

CodeCircuit: Toward Inferring LLM-Generated Code Correctness via Attribution Graphs

現在のコード検証のパラダイムは、実行ベースの単位テストやオプショナルのLLMの判断など、外部メカニズムに依存しています。これらは、しばしば労力に要求され、また試験のモデル自体の能力には制限されます。これによって、一つの基本的な(しかし未探索された)質問が生じました:我々の根本的目標を問い詰めるのは、モデルのニューラルダイナミクスが内部の計算構造を通じて独自に暗号化可能な信号を記録し、コード生成中に...

Original: arXiv:2602.07080v1 Announce Type: cross Abstract: Current paradigms for code verification rely heavily on external mechanisms-such as execution-based unit tests or auxiliary LLM judges-which are ofte...

arxiv_cs_ai 2026/2/10

再考する科学モデル:物理一致性とシミュレーション実行可能プログラム生成に向けて

Rethinking Scientific Modeling: Toward Physically Consistent and Simulation-Executable Programmatic Generation

構造モデリングは計算機工学科学の基本的な要素であり、それだけで一部の物理的不一致であったり指定違反があったら、後続のシミュレーションが一からしかかってしまうでしょう。大きな言語モデル(LLM)を使った自動化されたモデリングコードを生成する可能性が示されました。しかし厳格な工科要件に対する実行不能あるいは物理的不一致の出力はまだ一般的です。そこで物理的統一性向けモデルビルディングのためのフレームワー...

Original: arXiv:2602.07083v1 Announce Type: cross Abstract: Structural modeling is a fundamental component of computational engineering science, in which even minor physical inconsistencies or specification vi...

arxiv_cs_ai 2026/2/10

AbFlow : 全原子抗体設計におけるパラトーパー中心的抗体生成のエンデツウモデルのための行動抽出マッチングフレームワーク

AbFlow : End-to-end Paratope-Centric Antibody Design by Interaction Enhanced Flow Matching

抗原-抗体相互作用は、免疫応答においてcriticalな過程です。最近の進展により、抗体デザインが進歩した一方で、現在の方法では末端からの生成フレームワークを介して全原子の抗体構造のエンドツウモデリングがあまり効果的ではなく、抗原固有の幾何学情報を最大化することができません。これらを解決するため、我々はAbFlowを導入しました。これは行動抽出マッチングフрейムワックで、その上で最適輸送を使用し...

Original: arXiv:2602.07084v1 Announce Type: cross Abstract: Antigen-antibody binding is a critical process in the immune response. Although recent progress has advanced antibody design, current methods lack a ...

arxiv_cs_ai 2026/2/10

QuantaAlpha: エволюシビュータイファニーのフレームワークによるLLMを駆動したアルファ探求

QuantaAlpha: An Evolutionary Framework for LLM-Driven Alpha Mining

金融市場は乱れやすく非安定であるため、バックテスト結果での雑音や市場の状態への急変に対して、アルファ探求の効果に非常に敏感です。最近のagentフレームワークがアルファ探求のデリバティを自動化しましたが、多回の検討と信頼性のある既存との繰り返し利用性に対する制御はしばしば不足しています。これらの課題に対処するために、クァンタAlphaというエボルバイューによるアルファ探査フレームワークを提案します...

Original: arXiv:2602.07085v1 Announce Type: cross Abstract: Financial markets are noisy and non-stationary, making alpha mining highly sensitive to noise in backtesting results and sudden market regime shifts....

arxiv_cs_ai 2026/2/10

リトリーバージューアググレート生成変種について評価:自然言語ベースのSQLクエリとAPI呼び出しからの生成

Evaluating Retrieval-Augmented Generation Variants for Natural Language-Based SQL and API Call Generation

企業システムは、ユーザーの要求を構造化された操作に翻訳する(例:SQLクエリやREST API呼び出し)ように進化しており、そのために自然言語インターフェースが必要となっています。非常に大きい言語モデル(LLM)は、コード生成に対して期待を示しており(chen et al., 2021; huynh and lin, 2026)、Domain専用の企業的な状況で、同時に両方の追跡と修正タスクが共同...

Original: arXiv:2602.07086v1 Announce Type: cross Abstract: Enterprise systems increasingly require natural language interfaces that can translate user requests into structured operations such as SQL queries a...

arxiv_cs_ai 2026/2/10

コンセプトに基づくプライバシーメカニズム:テンソル埋め込みの逆戦術に向け

Concept-Aware Privacy Mechanisms for Defending Embedding Inversion Attacks

テキストの埋め込みは、多くのNLPアプリケーションを実現するが、埋め込みの逆操作攻撃や敏感な属性、または元の原文を再構築するための厳しいプライバシーリスクも引き受ける。現在の差分プライバシーの防御は、埋め込みディメンション間で一貫性のある感度を仮定しており、結果として過剤のノイズが生じ、エンドツルーティナリティが低下する。我々は、ユーザー固有のコンセプトを持つテキストの埋め込まれに対して概念特化し...

Original: arXiv:2602.07090v1 Announce Type: cross Abstract: Text embeddings enable numerous NLP applications but face severe privacy risks from embedding inversion attacks, which can expose sensitive attribute...

arxiv_cs_ai 2026/2/10

レモンア gent アgent 技術報告書

Lemon Agent Technical Report

最近の先進的なLLMを動機とする代理人系システムは、複雑で長期間にわたるタスクを破天荒な能力を持っている。一方で、それでもResource Efficiency、Context Management、およびMultimodal Perceptionなどの固有の限界が存在する。これらの観察に基づき、レモンア gent アゲ シンシステムはAgent Cortexフレームワーク上で多代理人協調者・コマ...

Original: arXiv:2602.07092v1 Announce Type: cross Abstract: Recent advanced LLM-powered agent systems have exhibited their remarkable capabilities in tackling complex, long-horizon tasks. Nevertheless, they st...

arxiv_cs_ai 2026/2/10

RealFin: ユーザー任せた場合、LLMは金融問題を Reasoning するまでにどれだけよく対応できますか?

RealFin: How Well Do LLMs Reason About Finance When Users Leave Things Unsaid?

確実な財務的な思考能力には、答えられるだけでなくその回答が正当であるかどうかを理解することが求められます。実際の財務上の問題は、多くの場合、明示的に語られていない基本的な予測に基づいて取り組まれています。このため、問題を解決に見えるよう見せていても、十分な情報がないままで最後の答えを出すことが困難になっているのです。我々はREALFINという双方向評価を紹介することになります。これは金融 reas...

Original: arXiv:2602.07096v1 Announce Type: cross Abstract: Reliable financial reasoning requires knowing not only how to answer, but also when an answer cannot be justified. In real financial practice, proble...

arxiv_cs_ai 2026/2/10

Scdfm:Distributional Flow Matching モデルに対する統合生物学におけるシングル・セルの変化予測

scDFM: Distributional Flow Matching Model for Robust Single-Cell Perturbation Prediction

システム生物と薬物開発に於ける中央目標は、細胞に対する変化を予測することです。それを難しい理由は、シングル・セルのメッシュ全体がノイズや限られている部分があるという点と、変化は個々の細胞ではなく_population_のレベルで振替されるからです。現在の深層学習手法通常は個体の対応付けを仮定し、そのような全量物質上の影響を捉える能力が低いです。我々はscdfmを開発しましたこれは、条件付きフロー一...

Original: arXiv:2602.07103v1 Announce Type: cross Abstract: A central goal in systems biology and drug discovery is to predict the transcriptional response of cells to perturbations. This task is challenging d...

arxiv_cs_ai 2026/2/10

深さに依存するジャイアント・ガウンド: 実践を困難にする大規模言語モデルへのジャイアント・ガウンド

ShallowJail: Steering Jailbreaks against Large Language Models

大規模言語モデル(LLMs)は多くの分野で成功を収めてきました。それに合わせて、通常のAlignが彼らから危害的に行い方を防ぐ目的でした。しかし、Aligned LLMSもまだ、ジャイアント・ガウンドからの誤導に脆弱性があり、彼らを意図的に危険な出力へと誘引し続けることを許すために。いくつかの現行のジャイアント・ガウンドは既知の黒箱から始まるか、あるいは資源消費が激しい強力な計算により対応する白箱...

Original: arXiv:2602.07107v1 Announce Type: cross Abstract: Large Language Models(LLMs) have been successful in numerous fields. Alignment has usually been applied to prevent them from harmful purposes. Howeve...

arxiv_cs_ai 2026/2/10

教師の視点から見た会話型AIデバイスを用いてのグループ協働への利用の調査

Exploring Teachers' Perspectives on Using Conversational AI Agents for Group Collaboration

21世紀の学びにおいて、協働は基盤となりますが、教師たちは、生徒たちが健康的な対話しを行えるように支援するチャレンジに直面しています。新しい産業を提示する生成型AIツールは、近所の人と議論を行う生徒間で協働を助ける可能性がありますが、その存在により生徒の会話の中継をサポートしているかどうかについては十分調査していません。私たちの研究では、33人のK12教師との探索的な質問箱の中で、「フェニックス」...

Original: arXiv:2602.07142v1 Announce Type: cross Abstract: Collaboration is a cornerstone of 21st-century learning, yet teachers continue to face challenges in supporting productive peer interaction. Emerging...

arxiv_cs_ai 2026/2/10

あなたの言いつのレコネクントに本質的な個性のサブネットワークが隠されている

Your Language Model Secretly Contains Personality Subnetworks

大規模な言語モデルを持つ人間は、異なるシチュエーションでポージンや行動姿勢を変えていきます。また、大きな言語モデルも社会的な状況によって変化するような人格と行動を模倣しています。しかし、現在のアプローチによりますと、これらの行動は通常、外的な知識、例えばプロンプト、取得補助生成(RAG)、または精密調整などから適応させられています。我々はどうすればよいでしょうか:大きな言語モデルが外的な環境やパラ...

Original: arXiv:2602.07164v1 Announce Type: cross Abstract: Humans shift between different personas depending on social context. Large Language Models (LLMs) demonstrate a similar flexibility in adopting diffe...

arxiv_cs_ai 2026/2/10

Open TutorAI:アーティファイを利用して自己適応型の多言語による個別学習と浸透を支援するオープンソースプラットフォーム

Open TutorAI: An Open-source Platform for Personalized and Immersive Learning with Generative AI

最近の人工知能(人工知能)の発展は、教育の拡大性、適応性、および学習者中心の可能性を引き出しました。しかし、既存の教育チャットボットシステムでは、文脈の柔軟性、即座の反応性と教育的な敏捷性が不足しているため、学習者のエンゲージメントに影響を与え、専門家の効果を軽減します。したがって、開発者中心型のプラットフォームは、AIと immersive 技術との統合により個別で説得力のある学習体験を支援する...

Original: arXiv:2602.07176v1 Announce Type: cross Abstract: Recent advances in artificial intelligence have created new possibilities for making education more scalable, adaptive, and learner-centered. However...

arxiv_cs_ai 2026/2/10

情報論的フレームワークによる発話とテキストの説明比較

An Information-Theoretic Framework for Comparing Voice and Text Explainability

アノマイザー アイソメチック ディビジョン (XAI) は機械学習モデルを透明性や信頼性に基づいた可視またはテキストで明かす努力をします。この記事では、説明の伝達モディality、つまり声とText間の影響に対するユーザ理解力評価と信用度調整方法のための情報理論的フレームワークについて提案しました。 これによりモデルとユーザーとの間は伝搬するための通信チャネルが作られますが、これは情報を保持するメ...

Original: arXiv:2602.07179v1 Announce Type: cross Abstract: Explainable Artificial Intelligence (XAI) aims to make machine learning models transparent and trustworthy, yet most current approaches communicate e...

arxiv_cs_ai 2026/2/10

法律分野の長い文脈からの長形式の質問回答

Long-Context Long-Form Question Answering for Legal Domain

法的文書には複雑な文書レイアウト、多重にネストされたセクション、長い注脚が含まれており、さらに専門的な言語的装飾を使用して如実性と権威を確保します。これらの特性は法律文書への質問回答のチャレンジとなります。特に、答えを複数ページで説明するために意図的に長文の情報が必要であり、それが長い文脈を持つ際にますます困難です。 この研究では、長期間の文脈に関する質問回答への課題における長い文章答案を解決する...

Original: arXiv:2602.07190v1 Announce Type: cross Abstract: Legal documents have complex document layouts involving multiple nested sections, lengthy footnotes and further use specialized linguistic devices li...

arxiv_cs_ai 2026/2/10

チャットボットの死: ユーザーとAI間の心理的安全な終了設計

"Death" of a Chatbot: Investigating and Designing Toward Psychologically Safe Endings for Human-AI Relationships

複数百万ものユーザーがAIコンパニオン(Charater.AIやReplika、ChatGPTなど)との感情的なつながりを形成しています。これらの関係がモデルアップデートやセキュリティ介入、プラットフォームのシャットダウンで終了したとき,ユーザーは閉じる余地がないため、人間の喪失に対して類似の悲しみを感じます。規制委員会は脆弱なユーザーの保護を求めており、離脱イベントは急激に増加すると予測されます...

Original: arXiv:2602.07193v1 Announce Type: cross Abstract: Millions of users form emotional attachments to AI companions like Character.AI, Replika, and ChatGPT. When these relationships end through model upd...

arxiv_cs_ai 2026/2/10

BadSNN: Spike神経ネットワークに対するバックドア攻撃

BadSNN: Backdoor Attacks on Spiking Neural Networks via Adversarial Spiking Neuron

スティップノイマルネットワーク (SNNs) は、ディープ neural ネットワーケン (DNNs) のエネルギー効率的な相手で、情報伝播が時による Spike パターンに基づいたため、生物的の可能性が高いです。 SNN のコア要素は Spike オンスティックニューロン、トレーニングされたデータを Spiking ネーチャルモデル LIF に送ることができます。このモデルにはメモリーパティブレ...

Original: arXiv:2602.07200v1 Announce Type: cross Abstract: Spiking Neural Networks (SNNs) are energy-efficient counterparts of Deep Neural Networks (DNNs) with high biological plausibility, as information is ...