Back to list
MiniMax M2.7 が BlockRun で稼働開始 — 自己進化の最初の推理モデル
MiniMax M2.7 Is Live on BlockRun — The First Self-Evolving Reasoning Model
Translated: 2026/3/21 3:07:08
Japanese Translation
MiniMax が M2.7 を発表し、今まさに BlockRun で利用可能になりました。
1 つの API 呼び出しだけで、リクエストごとの課金。サブスクリプションも MiniMax への API キー登録も不要です。
curl https://blockrun.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "minimax/minimax-m2.7",
"messages": [{"role": "user", "content": "Hello"}]
}'
もしまだ minimax/minimax-m2.5 を呼び出している場合は、自動的に M2.7 へリダイレクトされます。コードの変更は不要です。
M2.7 は、MiniMax が初めて「深い自己進化に深く参画する」と記述したモデルです。単にエージェントタスクを実行するだけでなく、反復的な自己改善ループを通じて自身のエージェントハンモースを構築・最適化します。
実務的には以下のようになります:
- 40 以上の複雑なスキル(各 2,000 トークンを越える)において 97% のスキル準拠
- 100 以上の反復サイクルを通じて、反復的なハンモース最適化による 30% の性能向上
- 研究ワークフローの 30–50% を自律的に処理
これはチャットボットのアップグレードではありません。エージェントとして使うほど、それができるようになるモデルです。
ベンチマーク
M2.7
コンテキスト
SWE-Pro
56.22%
GPT-5.3-Codex と一致
VIBE-Pro
55.6%
エンドエンドのプロジェクト実行
Terminal Bench 2
57.0%
複雑なエンジニアリングシステム
SWE Multilingual
76.5
クロスラングエージコードタスク
Multi SWE Bench
52.7
マルチリポジトリエンジニアリング
MLE Bench Lite(22 件の Kaggle スタイルの競争):平均賞状率 66.6% — Opus 4.6(75.7%)と GPT-5.4(71.2%)に次いで 2 位。1 回の実行で最高:9 金 5 銀 1 銀。
ベンチマーク
M2.7
コンテキスト
GDPval-AA ELO
1495
オープンソースモデルで最高
Toolathon
46.3%
ツール使用精度
MM Claw
62.7%
Sonnet 4.6 準近
生産性デバッグベンチマークでは、インシデント回復時間が 3 分以下と、ログ分析、セキュリティ監査、システム理解のための SRE レベルの意思決定が可能。
ネイティブエージェントチーム — モデル内に組み込まれたマルチエージェントコラボレーション
反復的な自己改善 — モデルが反復サイクルで自身のハンモースを最適化
キャラクターの整合性 — インタラクティブアプリにおける感情的知性の劇的な向上
金融分析 — 複雑な財務文書および報告書における深い推理
価格
入力
$0.30 / 1M トークン
出力
$1.20 / 1M トークン
コンテキストウィンドウ
204,800 トークン
これらは、Claude Opus より 50 倍安く、GPT-5.4 より 12 倍安く(出力トークンで)コストが安く、かつエンジニアリングベンチマークを同等にしています。
USDC を Base に使って 1 回あたりの支払い。API キーなし。サブスクリプションなし。最小消費額なし。
直接 API:
https://blockrun.ai/v1/chat/completions
Python SDK:
from blockrun import BlockRun
client = BlockRun()
response = client.chat("minimax/minimax-m2.7", "Explain this codebase")
TypeScript SDK:
import { BlockRun } from "blockrun";
const client = new BlockRun();
const response = await client.chat("minimax/minimax-m2.7", "Explain this codebase");
ClawRouter(どんなフレームワークでも使用できる OpenAI のドロップイン代替):
export OPENAI_BASE_URL=https://blockrun.ai/v1
# OpenClaw、LangChain、CrewAI、AutoGen などの、あらゆる OpenAI 互換クライアントで動作
MiniMax の完全なお知らせ:MiniMax M2.7 — 自己改善の旅へ出発
Original Content
MiniMax just dropped M2.7 — and it's live on BlockRun right now.
One API call. Pay per request. No subscription. No API key signup with MiniMax.
curl https://blockrun.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "minimax/minimax-m2.7",
"messages": [{"role": "user", "content": "Hello"}]
}'
If you're still calling minimax/minimax-m2.5, it auto-redirects to M2.7. No code changes needed.
M2.7 is the first model MiniMax describes as deeply participating in its own evolution. It doesn't just run agent tasks — it builds and optimizes its own agent harnesses through recursive self-improvement loops.
In practice, that means:
97% skill adherence across 40+ complex skills (each exceeding 2,000 tokens)
30% performance gains from recursive harness optimization over 100+ iteration cycles
Handles 30–50% of research workflows autonomously
This isn't a chatbot upgrade. It's a model that gets better at being an agent the more you use it as one.
Benchmark
M2.7
Context
SWE-Pro
56.22%
Matches GPT-5.3-Codex
VIBE-Pro
55.6%
End-to-end project delivery
Terminal Bench 2
57.0%
Complex engineering systems
SWE Multilingual
76.5
Cross-language code tasks
Multi SWE Bench
52.7
Multi-repo engineering
MLE Bench Lite (22 Kaggle-style competitions): 66.6% average medal rate — second only to Opus 4.6 (75.7%) and GPT-5.4 (71.2%). Best single run: 9 gold, 5 silver, 1 bronze.
Benchmark
M2.7
Context
GDPval-AA ELO
1495
Highest among open-source models
Toolathon
46.3%
Tool use accuracy
MM Claw
62.7%
Near Sonnet 4.6 level
Production debugging benchmarks show incident recovery time under 3 minutes — SRE-level decision-making for log analysis, security audits, and system comprehension.
Native Agent Teams — multi-agent collaboration built into the model, not bolted on
Recursive self-improvement — the model optimizes its own harnesses over iteration cycles
Character consistency — dramatically improved emotional intelligence for interactive apps
Financial analysis — deep reasoning over complex financial documents and reports
Price
Input
$0.30 / 1M tokens
Output
$1.20 / 1M tokens
Context window
204,800 tokens
That's 50x cheaper than Claude Opus and 12x cheaper than GPT-5.4 for output tokens — while matching their engineering benchmarks.
Pay per request with USDC on Base. No API key. No subscription. No minimum spend.
Direct API:
https://blockrun.ai/v1/chat/completions
Python SDK:
from blockrun import BlockRun
client = BlockRun()
response = client.chat("minimax/minimax-m2.7", "Explain this codebase")
TypeScript SDK:
import { BlockRun } from "blockrun";
const client = new BlockRun();
const response = await client.chat("minimax/minimax-m2.7", "Explain this codebase");
ClawRouter (drop-in OpenAI replacement for any framework):
export OPENAI_BASE_URL=https://blockrun.ai/v1
# Works with OpenClaw, LangChain, CrewAI, AutoGen — any OpenAI-compatible client
Read the full announcement from MiniMax: MiniMax M2.7 — Beginning the Journey of Recursive Self-Improvement