ai🚀mdx.jpのA100 x2でLLM-jp-4 32B ThinkingをvLLMサーブし、…🚀mdx.jpのA100 x2でLLM-jp-4 32B ThinkingをvLLMサーブし、OpenAI互換APIから使うmdx.jp の A100 40GB x2 サーバで LLM-jp-4-32b-a3b-thinking 公式版を動かし、Transformers の OOM から vLLM サーブへ切り替えた記録2026-04-09•aillmgpuvllm