Back to list
計算機におけるラッチ効果:大規模言語モデルにおける相互作用駆動型累積知能を介したラッチ効果
The Ratchet Effect in Silico through Interaction-Driven Cumulative Intelligence in Large Language Models
Translated: 2026/4/24 20:08:03
Japanese Translation
arXiv:2507.21166v2 発表タイプ:代替
要約:人間の知能は、創造性が保持されエントロピー的ドリフトに対し抗う累次文化的進化(CCE)というプロセスを通じてスケールします。一方、大規模言語モデルのトレーニングは主に静的コーパスとパラメータ増大に依存しており、相互作用を通じて内生的な蓄積の余地は少ないままです。われわれは、異質的なエージェントが解決策を生成し、互いの出力を確認し、検証されたアセットを共有的文化記憶に保存し、パラメータ更新を通じてそれらを内部化する「POLIS(Population Orchestrated Learning and Inference Society)」という枠組みを提示します。数値推論ベンチマークにおいて、1--4B パラメータのモデル集団は基本モデルに対する平均 8.8--18.9 点の改善を果たし、70B 以上の単体モデルとの間隔を縮めました。機能的除去実験は、ピア確認が主なラッチオペレータであることを示し、内部化がラウンドを超えて蓄積を支えていることを示唆しています。これは、認識的警戒が持続的な知識の成長を組織化する計算機証拠となっています。これらの結果は、構造化された社会的相互作用をパラメータカウントとは直交するスケールレバレッジの位置づけました。
Original Content
arXiv:2507.21166v2 Announce Type: replace
Abstract: Human intelligence scales through cumulative cultural evolution (CCE), a ratchet process in which innovations are retained against entropic drift. Large language model training, by contrast, still depends primarily on static corpora and parameter growth, leaving little room for endogenous accumulation through interaction. We present POLIS (Population Orchestrated Learning and Inference Society), a framework in which heterogeneous agents generate solutions, verify one another's outputs, retain validated artifacts in shared cultural memory, and internalize them through parameter updates. On mathematical reasoning benchmarks, populations of 1--4B-parameter models achieved average gains of 8.8--18.9 points over base models and narrowed the gap to 70B+ monoliths. Mechanistic ablations identify peer verification as the main ratchet operator and show that internalization sustains accumulation across rounds, providing computational evidence that epistemic vigilance organizes durable knowledge growth. These results position structured social interaction as a scaling lever orthogonal to parameter count.