Back to list
dev_to 2026年3月21日

MiniMax M2.7 が BlockRun で稼働開始 — 自己進化の最初の推理モデル

MiniMax M2.7 Is Live on BlockRun — The First Self-Evolving Reasoning Model

Translated: 2026/3/21 3:07:08

Japanese Translation

MiniMax が M2.7 を発表し、今まさに BlockRun で利用可能になりました。 1 つの API 呼び出しだけで、リクエストごとの課金。サブスクリプションも MiniMax への API キー登録も不要です。 curl https://blockrun.ai/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "minimax/minimax-m2.7", "messages": [{"role": "user", "content": "Hello"}] }' もしまだ minimax/minimax-m2.5 を呼び出している場合は、自動的に M2.7 へリダイレクトされます。コードの変更は不要です。 M2.7 は、MiniMax が初めて「深い自己進化に深く参画する」と記述したモデルです。単にエージェントタスクを実行するだけでなく、反復的な自己改善ループを通じて自身のエージェントハンモースを構築・最適化します。 実務的には以下のようになります: - 40 以上の複雑なスキル(各 2,000 トークンを越える)において 97% のスキル準拠 - 100 以上の反復サイクルを通じて、反復的なハンモース最適化による 30% の性能向上 - 研究ワークフローの 30–50% を自律的に処理 これはチャットボットのアップグレードではありません。エージェントとして使うほど、それができるようになるモデルです。 ベンチマーク M2.7 コンテキスト SWE-Pro 56.22% GPT-5.3-Codex と一致 VIBE-Pro 55.6% エンドエンドのプロジェクト実行 Terminal Bench 2 57.0% 複雑なエンジニアリングシステム SWE Multilingual 76.5 クロスラングエージコードタスク Multi SWE Bench 52.7 マルチリポジトリエンジニアリング MLE Bench Lite(22 件の Kaggle スタイルの競争):平均賞状率 66.6% — Opus 4.6(75.7%)と GPT-5.4(71.2%)に次いで 2 位。1 回の実行で最高:9 金 5 銀 1 銀。 ベンチマーク M2.7 コンテキスト GDPval-AA ELO 1495 オープンソースモデルで最高 Toolathon 46.3% ツール使用精度 MM Claw 62.7% Sonnet 4.6 準近 生産性デバッグベンチマークでは、インシデント回復時間が 3 分以下と、ログ分析、セキュリティ監査、システム理解のための SRE レベルの意思決定が可能。 ネイティブエージェントチーム — モデル内に組み込まれたマルチエージェントコラボレーション 反復的な自己改善 — モデルが反復サイクルで自身のハンモースを最適化 キャラクターの整合性 — インタラクティブアプリにおける感情的知性の劇的な向上 金融分析 — 複雑な財務文書および報告書における深い推理 価格 入力 $0.30 / 1M トークン 出力 $1.20 / 1M トークン コンテキストウィンドウ 204,800 トークン これらは、Claude Opus より 50 倍安く、GPT-5.4 より 12 倍安く(出力トークンで)コストが安く、かつエンジニアリングベンチマークを同等にしています。 USDC を Base に使って 1 回あたりの支払い。API キーなし。サブスクリプションなし。最小消費額なし。 直接 API: https://blockrun.ai/v1/chat/completions Python SDK: from blockrun import BlockRun client = BlockRun() response = client.chat("minimax/minimax-m2.7", "Explain this codebase") TypeScript SDK: import { BlockRun } from "blockrun"; const client = new BlockRun(); const response = await client.chat("minimax/minimax-m2.7", "Explain this codebase"); ClawRouter(どんなフレームワークでも使用できる OpenAI のドロップイン代替): export OPENAI_BASE_URL=https://blockrun.ai/v1 # OpenClaw、LangChain、CrewAI、AutoGen などの、あらゆる OpenAI 互換クライアントで動作 MiniMax の完全なお知らせ:MiniMax M2.7 — 自己改善の旅へ出発

Original Content

MiniMax just dropped M2.7 — and it's live on BlockRun right now. One API call. Pay per request. No subscription. No API key signup with MiniMax. curl https://blockrun.ai/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "minimax/minimax-m2.7", "messages": [{"role": "user", "content": "Hello"}] }' If you're still calling minimax/minimax-m2.5, it auto-redirects to M2.7. No code changes needed. M2.7 is the first model MiniMax describes as deeply participating in its own evolution. It doesn't just run agent tasks — it builds and optimizes its own agent harnesses through recursive self-improvement loops. In practice, that means: 97% skill adherence across 40+ complex skills (each exceeding 2,000 tokens) 30% performance gains from recursive harness optimization over 100+ iteration cycles Handles 30–50% of research workflows autonomously This isn't a chatbot upgrade. It's a model that gets better at being an agent the more you use it as one. Benchmark M2.7 Context SWE-Pro 56.22% Matches GPT-5.3-Codex VIBE-Pro 55.6% End-to-end project delivery Terminal Bench 2 57.0% Complex engineering systems SWE Multilingual 76.5 Cross-language code tasks Multi SWE Bench 52.7 Multi-repo engineering MLE Bench Lite (22 Kaggle-style competitions): 66.6% average medal rate — second only to Opus 4.6 (75.7%) and GPT-5.4 (71.2%). Best single run: 9 gold, 5 silver, 1 bronze. Benchmark M2.7 Context GDPval-AA ELO 1495 Highest among open-source models Toolathon 46.3% Tool use accuracy MM Claw 62.7% Near Sonnet 4.6 level Production debugging benchmarks show incident recovery time under 3 minutes — SRE-level decision-making for log analysis, security audits, and system comprehension. Native Agent Teams — multi-agent collaboration built into the model, not bolted on Recursive self-improvement — the model optimizes its own harnesses over iteration cycles Character consistency — dramatically improved emotional intelligence for interactive apps Financial analysis — deep reasoning over complex financial documents and reports Price Input $0.30 / 1M tokens Output $1.20 / 1M tokens Context window 204,800 tokens That's 50x cheaper than Claude Opus and 12x cheaper than GPT-5.4 for output tokens — while matching their engineering benchmarks. Pay per request with USDC on Base. No API key. No subscription. No minimum spend. Direct API: https://blockrun.ai/v1/chat/completions Python SDK: from blockrun import BlockRun client = BlockRun() response = client.chat("minimax/minimax-m2.7", "Explain this codebase") TypeScript SDK: import { BlockRun } from "blockrun"; const client = new BlockRun(); const response = await client.chat("minimax/minimax-m2.7", "Explain this codebase"); ClawRouter (drop-in OpenAI replacement for any framework): export OPENAI_BASE_URL=https://blockrun.ai/v1 # Works with OpenClaw, LangChain, CrewAI, AutoGen — any OpenAI-compatible client Read the full announcement from MiniMax: MiniMax M2.7 — Beginning the Journey of Recursive Self-Improvement