Back to list
arxiv_cs_gr 2026年3月30日

構造に感応したリトリバ aug メンタ大規模言語モデルを用いた信頼性の高い科学的可視化パイプライン構築へのアプローチ

Toward Reliable Scientific Visualization Pipeline Construction with Structure-Aware Retrieval-Augmented LLMs

Translated: 2026/3/30 10:43:51
scientific-visualizationlarge-language-modelsretrieval-augmented-generationvtk-jspipeline-construction

Japanese Translation

arXiv:2603.16057v2 Announce Type: replace 抽象: 科学的可視化パイプラインは、ドメイン固有のプロシージャル知識を符号化し、厳密な実行依存関係を有しており、その構築は段階の欠如、演算子の誤用、または順序の不適切さに対する敏感性を持っています。したがって、自然言語の説明から実行可能な科学的可視化パイプラインを生成することは、大規模言語モデルにとって依然として課題であり、特に可視化作成が明示的なコードレベルのパイプラインアセンブリに頼っているウェブベースの環境では顕著です。本研究では、 vtk.js を代表的なウェブベースの可視化ライブラリとして、大規模言語モデル基盤の科学的可視化パイプライン生成の信頼性を調査します。われわれは、パイプライン揃った vtk.js コード例を提供し、正しいモジュール選択、パラメータ設定、および実行順序をサポートする、構造に感応したリトリバ aug メンタ生成ワークフローを提案します。われわれは、複数のマルチステージ科学的可視化タスクおよび大規模言語モデルを介して提案したワークフローを評価し、パイプラインの実行可能性および人間による修正努力という観点での信頼性を計測しました。このため、有効なパイプラインを取得するために必要な手動介入の量を表す「修正コスト」を指標として導入しました。われわれの結果は、構造化されたドメイン固有のコンテキストがパイプラインの実行可能性を大幅に改善し、修正コストを減らすことを示しています。加えて、我々は人間によるループでの検査および生成された可視化パイプラインの体系的な評価をサポートするためのインタラクティブ解析インターフェースを提供します。

Original Content

arXiv:2603.16057v2 Announce Type: replace Abstract: Scientific visualization pipelines encode domain-specific procedural knowledge with strict execution dependencies, making their construction sensitive to missing stages, incorrect operator usage, or improper ordering. Thus, generating executable scientific visualization pipelines from natural-language descriptions remains challenging for large language models, particularly in web-based environments where visualization authoring relies on explicit code-level pipeline assembly. In this work, we investigate the reliability of LLM-based scientific visualization pipeline generation, focusing on vtk.js as a representative web-based visualization library. We propose a structure-aware retrieval-augmented generation workflow that provides pipeline-aligned vtk.js code examples as contextual guidance, supporting correct module selection, parameter configuration, and execution order. We evaluate the proposed workflow across multiple multi-stage scientific visualization tasks and LLMs, measuring reliability in terms of pipeline executability and human correction effort. To this end, we introduce correction cost as metric for the amount of manual intervention required to obtain a valid pipeline. Our results show that structured, domain-specific context substantially improves pipeline executability and reduces correction cost. We additionally provide an interactive analysis interface to support human-in-the-loop inspection and systematic evaluation of generated visualization pipelines.