Back to list
Aster: 自動的な科学的発見を20倍速より早く達成する
Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods
Translated: 2026/3/7 8:16:50
Japanese Translation
arXiv:2602.07040v1 投稿種類:新しい 概要:我々はAIエージェントであるAster、科学的発見を行うための自律的な技術を提案しました。これにより、現在のフレームワークの約20倍速で動作します。特定のタスク、基準プログラムと評価プログラムのパフォーマンスに従って、Asterは繰り返し改善しますことで新しい成果が生まれ、新たな問題の解を拡大できるようにしました。Asterは、新しい問題の探索において大幅に必要になった回数の減少により、非常に長い評価時間を持つタスク(例えば多時刻機学データの訓練)にも適用可能であり、より幅広い問題に対処できます。我々は数学、GPU キャプラゲン設計、生物学、神経科学、言語モデルトレーニングといった様々な課題に対してAsterを適用しました。以下に詳細:エドウス最小の交差問題の最適化、TriMul コイルの最適化、個単細胞解析除去問題、学習活性予測モデルへのニューラル ディープブリューク・ボンデータセット上で良いパフォーマンスを得る為に訓練するため、ネオGPT速い競争。 Aasterは全てのタスクで現象最適を実現しました、ゼーモン・ベンチマーキングタスクのみを除けば、その計算力の約十分の一でHuman-bestパフォーマンスを達成しています。AsterはウェブインターフェースとAPIを通じて取得可能です。asterlab.ai
Original Content
arXiv:2602.07040v1 Announce Type: new
Abstract: We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs.
We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute.
Aster is accessible via a web interface and API at asterlab.ai.