Back to list
dev_to 2026年3月7日

なぜAIモデルを統合するのは失敗するのか(そして「 gossip ハンズショック」がそれを修復した)

Why Merging AI Models Fails (And How a 'Gossip Handshake' Fixed It)

Translated: 2026/3/7 8:28:00

Japanese Translation

問題: AIは過度に集中的です。私の近い数ヶ月は分散された知識シェアの調査でした。目標 : ガーデニングスペシャリストと農場医のような異なるAI「専門家」を一つにしてみましょうか?」 特殊な知恵のFailure: 重さ空間統合法の失敗 ラーニングモデルから農機の修理が得意であるものと畜産における病気の治療に知識があるものが組み合わさったとき、結果は最悪でした。 合併された「新しい」モデルはランダムチャンスよりも低い点数でした。それがあたいためではなく、混乱しました。 牛が発熱した場合の自動車修理ルールを適用しようとしたのです。この、個体性原則逆説と私たちは独自の形で叫びのフューチャー通路プロトコルを見つけました。 ラウンド Robin Hood(すり鉢)アダプターをBluetooth(BLE)を使ってさまざまなデバイス間で交換します。また、それをローカルライブラリーに保存しました。質問を行うときに、 Semantic ローレイナーは適切な専門家に対応したものがわかります。結果は驚くべき: 整合が実現されたので13倍の成績向上がありました。 セッション構築 課程 運用 経営者 バンダルーレス アゴリアー デュアルゲート 整合した後の得点 48.0% 正しい82.0% 従来の統合モデル: 17.0% 正しい35.0% 我々にあった方法: 確率通路 メモリアルは単独の専門家を無効化しました。 アゴリアーとヴェクターの得点 合計の成績 64.0% ミックス前で82.0% 正しい78.0% この差が大きいことは明らかでした。 従来からの統合ではなく、統合だけでそれらは5倍以上まで性能が向上しました。「ゼロインターネット」:このプロトコルが 「ゼロインターネット」をサポートします。 プライバシー:あなたの「純粋なデータ」はあなたのデバイスから外れます。単に「数学」すり鉢の情報のみが対象となります. スケーラビリティ : 単に一つの電話の上に100もの専門家を追加できます。それだけで間もなく移行が行われます。 本題:僕たちはみんなで共有したいと思いますあなたの反応!LoRA アダプターを統合する経験がありましたか?結果について言及してみました!

Original Content

The Problem: AI is Too Centralized I spent the last few months researching Decentralized Knowledge Sharing. The goal: Could two different AI "experts"—say, an Agronomy Expert and a Veterinary Expert, combine their brains into one? The "Common Sense" Failure: Weight-Space Merging I tested this, and the results were catastrophic. When I merged a model that knew how to fix tractors with a model that knew how to treat cattle, the resulting "merged" model scored below random chance. It didn't just forget; it got confused. It tried to apply tractor repair logic to sick cows. I call this the Specialization Paradox: The smarter your individual AI models get, the harder they are to merge. The Solution: The Gossip Handshake Protocol Instead of merging weights, we: Gossip: Devices discover each other via Bluetooth (BLE) and swap tiny 50MB "LoRA adapters" (knowledge packets). Handshake: The device stores these adapters in a local library. Route: When you ask a question, a lightweight Semantic Router picks the right expert for the job. The Results: 13x Better Performance Method Configuration Agronomy Veterinary Overall Score Baseline Standalone Expert 68.0% 92.0% 80.0% Standard Merge TIES-Merging (d=0.5) 20.0% 8.0% 14.0% Our Approach Gossip Handshake 64.0% 92.0% 78.0% The gap is massive. By simply switching instead of merging, we achieved a 5.6x to 13x leap in performance. Why This Matters for Digital Sovereignty Zero Internet: This protocol works in "Zero-G" zones. Privacy: Your raw data never leaves your device. Only the "math" (the adapter) is shared. Scalable: You can add 100 experts to a single phone, and it only takes milliseconds to switch between them. Try it Yourself (Open Source) 👉 GitHub Repository: https://github.com/tflux2011/gossip-handshake Final Thoughts I’d love to hear from you: Have you tried merging LoRA adapters? What were your results? Let’s discuss in the comments!