Back to list
dev_to 2026年3月21日

Mac Mini で Ollama を実行する方法:完全なローカル AI セットアップガイド

How to Run Ollama on Mac Mini: A Complete Local AI Setup Guide

Translated: 2026/3/21 5:11:48
ollamamac-minilocal-aim-seriesllama3

Japanese Translation

Mac Mini で Ollama を実行する方法を探しているなら、M 系列チップが最高のローカル AI ホストデバイスであることは既にわかったはずでしょう。私は数週前に環境を構築し、現在は 24 時間稼働しています。静かで、高速で、完全にプライバシーを保っています。 M2 および M4 Mac Mini は統一メモリアーキテクチャを採用しており、CPU と GPU が同じ RAM プールを共有します。ローカル AI ワークロードにおいてこれは極めて重要です。16GB の M2 Mac Mini は Llama 3.1 8B モデルを快適に動作させ、24GB モデルは Mistral、Gemma 2、および一部の 32B 量子化モデルも問題なく処理できます。 さらに静かで、電力効率が良い(アイドル時約 6-8W)ため、モニターの後でも置けるサイズです。家庭用の AI サーバーとしてこれを超える選択肢はありません。 まず、ollama.com からインストーラーを取得してください。それは単なる Mac アプリのインストールです。アプリフォルダにドラッグ&ドロップするだけで完了します。 インストール後、Terminal を開き、実行状況を確認します: ollama --version 出力は ollama version 0.3.x のようなものになります。Ollama はインストール後自動的にバックグラウンドサービスとして起動されます。 Mac Mini で Ollama を効果的に実行するには、モデルの選択を RAM に合わせる必要があります。以下が推奨ガイドです: | RAM | 推奨モデル | | --- | --- | | 8GB | Llama 3.2 3B, Phi-3 Mini | | 16GB | Llama 3.1 8B, Mistral 7B, Gemma 2 9B | | 24GB+ | Llama 3.1 32B (Q4), Mixtral 8x7B | モデルを以下のようにダウンロードします: ollama pull llama3.1 これは ~/.ollama/models に保存されます。1 回目のダウンロードはモデルサイズと接続状況に応じて数分かかります。 直ちにテストを実行します: ollama run llama3.1 "Summarise what Ollama is in two sentences." 応答があれば、運用準備が完了です。 デフォルトでは、Ollama は localhost:11434 にしかリッスンしません。ネットワーク上の他のデバイス(または Docker 内で稼働する n8n)からアクセスするには、バインドアドレスを変更する必要があります。 macOS では、Ollama サービスの環境変数を編集することでこれが可能です: launchctl setenv OLLAMA_HOST "0.0.0.0:11434" その後、メニューバーアイコンから Ollama を再起動(クローズし再オープン)します。すべてのインターフェースでリッスンしていることを確認するには: lsof -i :11434 これで、ローカルネットワーク上のどのデバイスも http://[your-mac-mini-ip]:11434 に Ollama をアクセスできるようになります。 ここで本質的に有益な機能が活きてきます。n8n はセルフホストされたワークフロー自動化ツールであり、ネイティブな Ollama ノードを持っています。Mac Mini がローカルネットワークで Ollama を稼働させた場合、以下が可能になります: - メール、ウェブ훅、またはスケジュールからワークフローをトリガーする - 内容を送信して、Ollama で要約、分類、または草作成を行う - 出力を Notion、Gmail、Slack、またはどこにも転送する n8n と Ollama を接続するには、「Ollama」認証タイプを使用し、基本 URL を http://[mac-mini-ip]:11434 に設定します。これで完了です。API キー、レート制限、クラウドコストなし。 シンプルなワークフローは以下のようになります:Gmail トリガー → メール本文抽出 → Ollama 要約 → Notion データベースへの追加。構築には約 10 分かかります。 Ollama アプリはデフォルトでログイン時に自動起動します。確認するには、システム設定 → 一般 → 起動項目へ行き、Ollama がリストされていることを確認します。 Mac Mini をヘッドレス(モニターなし)で稼働させている場合は、自動ログインが有効であることを確認し、電源サイクリック後にセッションが開始されるようにします:システム設定 → ユーザーとグループ → 自動ログイン。 量子化モデルを使用してください:Q4_K_M バリエーションが最適ポイントです——高品質で、RAM の半分しか不要ではありません。 メモリを大量に消費するアプリを閉じてください:Safari で 40 タブを開くと、モデルと競合します。専用サーバーでは問題ありません。 Activity Monitor で監視します:メモリタブの「メモリ負荷」を確認します。緑色は余分な容量があることを意味します。 同時リクエスト:デフォルトでは Ollama は 1 リクエストを処理します。マルチユーザー環境については、OLLAMA_NUM_PARALLEL を検討してください。 日常業務では、私の Mac Mini Ollama セットアップは以下を処理しています:長いメールの要約、返信の草書、RSS フィードのタグ付けと分類、および n8n を通じた nightly のドキュメント処理ジョブ。それは私が失うことを恐れるインフラとなっています。 特に、n8n 統合は多くの機能を解放しました。「ChatGPT について聞く」と思わなくなりました。

Original Content

How to Run Ollama on Mac Mini: A Complete Local AI Setup Guide If you've been looking into how to run Ollama on Mac Mini, you've probably already figured out that the M-series chips make it one of the best local AI hosts money can buy. I set mine up a few weeks ago and it's been running 24/7 without a hiccup — silent, fast, and completely private. Here's exactly what I did. The M2 and M4 Mac Minis have unified memory architecture, which means the CPU and GPU share the same RAM pool. For local AI workloads, this matters a lot. A 16GB M2 Mac Mini can run Llama 3.1 8B comfortably, and a 24GB model handles Mistral, Gemma 2, and even some 32B quantized models without breaking a sweat. They're also quiet, energy-efficient (roughly 6-8W at idle), and small enough to sit behind a monitor. For a home AI server, there's not much competition. First, grab the installer from ollama.com. It's a straightforward Mac app install — drag to Applications, done. Once installed, open Terminal and verify it's running: ollama --version You should see something like ollama version 0.3.x. Ollama runs as a background service automatically after installation. To run Ollama on Mac Mini effectively, you want to match the model to your RAM. Here's a quick guide: RAM Recommended Models 8GB Llama 3.2 3B, Phi-3 Mini 16GB Llama 3.1 8B, Mistral 7B, Gemma 2 9B 24GB+ Llama 3.1 32B (Q4), Mixtral 8x7B Pull a model like this: ollama pull llama3.1 It downloads to ~/.ollama/models. First pull takes a few minutes depending on model size and your connection. Test it immediately: ollama run llama3.1 "Summarise what Ollama is in two sentences." If it responds, you're up and running. By default, Ollama only listens on localhost:11434. To reach it from other devices on your network (or from n8n running in Docker), you need to change the bind address. On macOS, you do this by editing the Ollama service environment: launchctl setenv OLLAMA_HOST "0.0.0.0:11434" Then restart Ollama from the menu bar icon (quit and reopen). You can verify it's listening on all interfaces: lsof -i :11434 Now any device on your local network can reach Ollama at http://[your-mac-mini-ip]:11434. This is where things get genuinely useful. n8n is a self-hosted workflow automation tool, and it has a native Ollama node. Once your Mac Mini is running Ollama on the local network, you can: Trigger workflows from email, webhooks, or schedules Pass content to Ollama for summarisation, classification, or drafting Route outputs to Notion, Gmail, Slack, or anywhere else To connect n8n to Ollama, use the "Ollama" credential type and set the base URL to http://[mac-mini-ip]:11434. That's it. No API keys, no rate limits, no cloud costs. A simple workflow might look like: Gmail trigger → extract email body → Ollama summarise → append to Notion database. Takes about 10 minutes to build. The Ollama app should auto-start on login by default. Double-check by going to System Settings → General → Login Items and confirming Ollama is listed. If you're running the Mac Mini headless (no monitor), make sure automatic login is enabled so the session starts after a power cycle: System Settings → Users & Groups → Automatic Login. Use quantized models: Q4_K_M variants are the sweet spot — nearly full quality, half the RAM. Close memory-hungry apps: Safari with 40 tabs will compete with your model. On a dedicated server this isn't an issue. Monitor with Activity Monitor: Check "Memory Pressure" under the Memory tab. Green means you have headroom. Concurrent requests: Ollama handles one request at a time by default. For multi-user setups, look into OLLAMA_NUM_PARALLEL. Day-to-day, my Mac Mini Ollama setup handles: summarising long emails before I read them, drafting replies, tagging and categorising RSS feeds, and running nightly document processing jobs through n8n. It's become infrastructure I'd miss if it went away. The n8n integration specifically unlocked a lot — you stop thinking "I'll ask ChatGPT about this" and start thinking "I'll build a workflow for this." Different mental model, much more powerful. Mac Mini M-series is ideal for local AI: unified memory, low power, always-on Ollama installs in minutes — one app, no configuration needed for basic use Expose port 11434 on all interfaces to reach Ollama from other local devices n8n integration turns your local model into a full automation backend Quantized models (Q4_K_M) give near-full quality at half the memory cost For headless use, enable automatic login so Ollama survives power cycles If you want to take this further — including the full n8n workflow setup, model selection guide, and automation templates — I documented the whole stack in a guide here: The Home AI Agent Blueprint.