Back to list
Google Cloud Next '26 Deep-Dive: なぜ「ハネスエンジニアリング」が新しいプロンプトエンジニアリングなのか
Google Cloud Next '26 Deep-Dive: Why "Harness Engineering" is the New Prompt Engineering
Translated: 2026/4/25 3:01:24
Japanese Translation
🚀 能動的な時代の到来:Google Cloud Next '26 の要点まとめ
Google Cloud Next '26 の 2 日目を見逃された方、ご安心ください。私がカバーいたします。全体像の視座から、キーボードレベルまでの実際の開発者発表へと移行は非常に巨大でした [1, 2]。
本会議の圧倒的なテーマは?能動的な時代がここにあります。従来のフルスタック開発者や、AI エンジニアを目指す方に関わらず、ソフトウェアの構築、セキュリティ、デプロイの手法そのものが根本的に変換しています。
開発者キーノートディープディップからのすべてを知るための要点です。
Replit の President と Head of AI の Michele Catasta によれば、開発者の日常業務は完全に混乱状態です [3, 4]。すべてのシンタックス行を手動で書くのではなく、開発者は AI エージェントのマネージャーへと進化しています [4]。
Vibe Coding: 従来の IDE から離れます。コードを見ていながらではなく、開発者は AI プロダクトと相互作用し、自然言語で要望を伝え、「エージェントの swarm(蜂群)」に作業を任せるようになります [4, 5]。
Instant Scalability: 巨大なアプリケーションを構築する際、Kubernetes やデータベース管理の専門家にいなくても構いません [6, 7]。プラットフォームは、Cloud Run のようなサーバーレス技術を使用して、AI 生成のアplikasi を「Day Zero」からスケーラビリティを実現してコンパイルします [8, 9]。
Automated Tech Debt Management: Replit のエージェントは単に構築するだけでなく、一部のパラメータを使用してあなたのコードベースをレビューし再編成し、積極的に活動します。これにより、「vibe coded(バイブコーディング)」されたプロトタイプが、維持可能なプロダクションレベルのアプリケーションへと変換されます [10, 11]。
AI アプリケーションを構築されている方、LangChain の CEOである Harrison Chase は、巨大な真実 Bomb を放ちました:Agent Harness Engineering において、本当のアルファ(優位性)が存在します。
何がハネスか?エージェントは基本的にループ内でツール呼び出しを行う LLM ですが、ハネスはモデルに環境とツール(ファイルシステムやデータベースなど)を接続するためのそのモデルを取り巻くスキャフォールドです [12]。
なぜそれが重要か?ハネスを変更することは、下流モデルのウェイトを微調整することに比べて同程度—if not more—効果的であり、頻繁にはるかに容易です。例えば、LLM に「仮想ファイルシステム」へのアクセスを提供すると、コーディングタスクのパフォーマンスが劇的に向上します [14, 15]。
Observability & Online Evals: ループ内で実行される AI エージェントは容易に脱線することが可能なため、すべてのステップをトレースすることは不可欠です [16, 17]。LangChain は、Gemini Flash のような高速モデルを使用して、推論されたエラー(ユーザーが公式にダウンボタンをクリックする前に「いいえ、それ間違っています」などとして言っている場合を含む)を検出し、それを改善ループにフィードする「オンライントesting(オンライン評価)」に重点を置いています [18, 19]。
AI が未先例の速度でコードを書き始めて以来、人間チームは物理的に追い付くことができません [20]。昔の「シフト Left(左シフト)」の哲学(セキュリティの負担を直接開発者にお任せする)は、パイプラインの摩擦とアラート疲労を生み出すために失敗しました [21]。
Wiz は新しい概念「シフト Down(ダウンシフト)」を導入しました。これは、セキュリティの責任をプラットフォームと AI エージェントそのものに直接抽象化することを意味します [22]。
Red Agents (Attackers): あなたのエントロポリーで探偵を探し、制限なくアクセスポイントを見つけるための能動的に攻撃的な行動を行う AI エージェント [23, 24]。
Green Agents (Fixers): あなたのコーディングエージェント(Gemini CLI など)とパートナーになり、Red エージェントが発見した脆弱性を自動的に PR として提案し、修正する AI エージェント [25, 26]。
Blue Agents (Defenders): 活発にあなたのライブ環境の疑わしいランタイム活動を監視し、自動的に修復用プレイブックを実行できる AI エージェント [27, 28]。
企業が開発者のチームがエージェントの Fleet に依存し始めて以来、ガバナンスは巨大な課題です [29, 30]。Google Cloud は、エージェントがどのように通信し動作するかを標準化することでこれを攻撃しています:
Google Cloud MCP (Model Context Protocol): エージェントが不正なツールで自由に動かすのを防ぐために、Google は巨大な API 管理ネットワーキングレイヤーを活用してリモート MCP サーバーを提供しています。これにより、エージェントはエンタープライズグレードのサービス(Maps や Android など)と安全に相互作用します
Original Content
🚀 Welcome to the Agentic Era: Key Takeaways from Google Cloud Next '26!
If you missed Day 2 of Google Cloud Next '26, don't worry—I've got you covered. The transition from the "big picture" vision to hands-on, keyboard-level developer announcements was massive [1, 2].
The overwhelming theme of the event? The Agentic Era is here. Whether you are a traditional full-stack developer or an aspiring AI engineer, the landscape of how we build, secure, and deploy software is fundamentally shifting.
Here is everything you need to know from the developer keynote deep-dive!
According to Michele Catasta, President and Head of AI at Replit, the day-to-day role of developers is being completely disrupted [3, 4]. Instead of manually writing every line of syntax, developers are evolving into managers of AI agents [4].
Vibe Coding: We are moving away from traditional IDEs. Instead of staring at code, developers will interact with AI products, express what they want in natural language, and let a "swarm of agents" get the job done [4, 5].
Instant Scalability: You no longer need to be an expert in Kubernetes or database management to build a massive app [6, 7]. Platforms are compiling these AI-generated apps to scale from "Day Zero" using serverless technologies like Cloud Run [8, 9].
Automated Tech Debt Management: Replit's agents don't just build; they spend part of their compute to actively review and restructure your codebase, ensuring that "vibe coded" prototypes become maintainable, production-ready applications [10, 11].
If you are building AI applications, Harrison Chase (CEO of LangChain) dropped a massive truth bomb: Agent Harness Engineering is where the real alpha is.
What is a Harness? An agent is essentially an LLM running in a loop calling tools, but the harness is the scaffold around the model that connects it to the environment and tools (like file systems or databases) [12].
Why it Matters: Changing the harness can be just as effective—and often much easier—than fine-tuning the weights of an underlying model [13]. For example, giving an LLM access to a "virtual file system" allows it to drastically improve performance on coding tasks [14, 15].
Observability & Online Evals: Because an AI agent running in a loop can easily go off the rails, tracing every step is critical [16, 17]. LangChain is leaning heavily into "online evals" using fast models like Gemini Flash to detect inferred errors (e.g., when a user says "No, you did it wrong" without formally clicking a thumbs down) and feeding that back into the improvement loop [18, 19].
With AI writing code at unprecedented speeds, human security teams physically cannot keep up [20]. The old philosophy of "shifting left" (putting security burdens directly on developers) struggled because it created pipeline friction and alert fatigue [21].
Wiz introduced a new concept: "Shifting Down." This means abstracting the responsibility of security directly into the platform and the AI agents themselves [22].
Red Agents (Attackers): AI agents that proactively act as attackers, finding exploits and unrestricted access points in your environment [23, 24].
Green Agents (Fixers): AI agents that partner with your coding agent (like Gemini CLI) to automatically propose pull requests and fix the vulnerabilities the Red Agent found [25, 26].
Blue Agents (Defenders): AI agents that actively monitor your live environment for suspicious runtime activity and can run automated remediation playbooks [27, 28].
As enterprises start relying on fleets of agents, governance becomes a massive challenge [29, 30]. Google Cloud is tackling this by standardizing how agents communicate and operate:
Google Cloud MCP (Model Context Protocol): To prevent agents from running wild with unauthorized tools, Google is leveraging its massive API management networking layers to offer remote MCP servers. This ensures agents securely interact with services (like Maps or Android) using enterprise-grade authentication and authorization [31-33].
Skills as Software Artifacts: You can instruct agents using "Skills" (often markdown files detailing exactly how an agent should accomplish a task) [34]. Because agents will find any loophole to complete a goal, these skill files are now treated as critical software artifacts that require vulnerability scanning, version control, and strict management [34, 35].
For the full-stack and frontend devs out there, Google announced support for Dart on Firebase Functions [36].
Final Thoughts:
What are you most excited to build in the Agentic Era? Let me know in the comments below! 👇