はじめに
Apple Silicon AI — マルチエンジンLLMベンチマーク&モニタリングCLI。
asiaiは、Mac上で推論エンジンを並べて比較します。同じモデルをOllamaとLM Studioにロードし、asiai benchを実行すれば、数値が得られます。推測なし、感覚なし — tok/s、TTFT、電力効率、エンジンごとの安定性だけです。
クイックスタート
pipx install asiai # 推奨: 隔離インストール
またはHomebrewで:
brew tap druide67/tap
brew install asiai
その他のオプション:
uvx asiai detect # インストールせずに実行 (uvが必要)
pip install asiai # 標準pipインストール
初回起動
asiai setup # インタラクティブウィザード — ハードウェア、エンジン、モデルを検出
asiai detect # またはエンジン検出に直接進む
次にベンチマーク:
asiai bench -m qwen3.5 --runs 3 --power
出力例:
Mac Mini M4 Pro — Apple M4 Pro RAM: 64.0 GB (42% used) Pressure: normal
Benchmark: qwen3.5
Engine tok/s (±stddev) Tokens Duration TTFT VRAM Thermal
────────── ───────────────── ───────── ────────── ──────── ────────── ──────────
lmstudio 72.6 ± 0.0 (stable) 435 6.20s 0.28s — nominal
ollama 30.4 ± 0.1 (stable) 448 15.28s 0.25s 26.0 GB nominal
Winner: lmstudio (2.4x faster)
Power: lmstudio 13.2W (5.52 tok/s/W) — ollama 16.0W (1.89 tok/s/W)
測定項目
| メトリクス | 説明 |
|---|---|
| tok/s | 生成速度(トークン/秒)、プロンプト処理を除く |
| TTFT | 最初のトークンまでの時間 — プロンプト処理のレイテンシ |
| Power | GPU消費電力(ワット)(sudo powermetrics) |
| tok/s/W | エネルギー効率 — ワットあたりの毎秒トークン数 |
| Stability | 実行間のばらつき: stable (<5%)、variable (<10%)、unstable (>10%) |
| VRAM | メモリ使用量 — ネイティブ(Ollama、LM Studio)またはri_phys_footprintによる推定(全エンジン) |
| Thermal | CPUスロットリング状態と速度制限パーセンテージ |
対応エンジン
| エンジン | ポート | API |
|---|---|---|
| Ollama | 11434 | ネイティブ |
| LM Studio | 1234 | OpenAI互換 |
| mlx-lm | 8080 | OpenAI互換 |
| llama.cpp | 8080 | OpenAI互換 |
| oMLX | 8000 | OpenAI互換 |
| vllm-mlx | 8000 | OpenAI互換 |
| Exo | 52415 | OpenAI互換 |
カスタムポート
エンジンが標準以外のポートで動作している場合、asiaiは通常プロセス検出で自動的に見つけます。手動で登録することもできます:
asiai config add omlx http://localhost:8800 --label mac-mini
手動で追加されたエンジンは永続化され、自動削除されることはありません。詳細はconfigをご覧ください。
要件
- Apple Silicon(M1 / M2 / M3 / M4)搭載のmacOS
- Python 3.11以上
- ローカルで動作する推論エンジンが少なくとも1つ
依存関係ゼロ
コアはPython標準ライブラリのみを使用 — urllib、sqlite3、subprocess、argparse。requestsなし、psutilなし、richなし。
オプションのエクストラ:
asiai[web]— チャート付きFastAPI Webダッシュボードasiai[tui]— Textualターミナルダッシュボードasiai[mcp]— AIエージェント統合用MCPサーバーasiai[all]— Web + TUI + MCPasiai[dev]— pytest、ruff、pytest-cov