はじめに
このリポジトリは Apple Silicon 上のローカル LLM 実験を前提にしています。スクリプト自体は軽量ですが、呼び出し先の runtime にはローカルモデル、Ollama モデル、MLX 互換モデルディレクトリなどが必要です。
必要なもの
- 初期 MLX VLM workflow では Apple Silicon macOS
- Python 3.10 以上
- Ollama / OpenAI compatible server ベンチ用の
curlとjq scripts/ollama_bench.sh用の Ollamascripts/mlx_vlm_bench.py用の MLX VLM
Python セットアップ
sh
python3 -m venv .venv
source .venv/bin/activate
python3 -m pip install -r requirements.txtローカル設定
.env.example を出発点にします。
sh
cp .env.example .env.env は Git 管理外なので、マシン固有のパスや URL を安全に置けます。
成果物の扱い
ローカルモデルは artifacts/models/ などの ignored path に置きます。Git には、軽量な結果ファイルと再現メモを残します。