JP | EN

Exploring Local LLM Workflows

ツール、モデル、活用事例の解説ダイジェスト

ローカル AI ワークステーションのセットアップ

目次

近年のコンシューマー向け GPU の性能向上、ツールの充実、そしてオープンウェイトモデルの登場により、大規模言語モデル(LLM)をローカル環境で実行することは、単に可能なだけでなく、実用的な段階に入っています。今回、自身の PC をローカル AI ワークステーションとしてセットアップし、生産性向上、自動化、マルチモーダル生成、開発ワークフローに焦点を当てた、いくつかの実用的な LLM 活用事例を検証しました。

本記事では、試行したアプリケーション、モデル、ユースケース、および必要なソフトウェアの概要をまとめています。各トピックについては、今後、インストール方法、設定、具体的な生成例などを網羅した詳細な個別記事を公開する予定です。

Base Environment Overview

各アプリケーションの詳細に入る前に、すべての実験で使用した PC のスペックと基礎となるソフトウェアスタックを紹介します。

パーツ種別 製品名 メーカー 主な仕様
CPU Core Ultra 7 265K Intel Arrow Lake-S architecture, unlocked processor, high-performance desktop CPU
CPU Cooler Peerless Assassin 120 Black Thermalright Dual-tower air cooler, 120 mm fan, 6 Heat Tubes
Motherboard PRO Z890-S WIFI MSI Intel Z890 chipset, LGA1851 socket, Wi-Fi, Intel 200S Boost support
Memory CP2K32G60C40U5W Corsair 64 GB (32 GB ×2) DDR5, 6000 MT/s, CL40, support Intel XMP 3.0 and AMD EXPO
Storage CT2000T500SSD8JP Crucial 2 TB NVMe SSD, PCIe Gen4, high-speed M.2 storage
Graphics Card GeForce RTX 5060 Ti 16G
VENTUS 2X OC PLUS
MSI NVIDIA GeForce RTX 5060 Ti, 16 GB GDDR7, factory overclocked, dual-fan design
PC Case North Charcoal Black TG Dark Fractal Design Mid-tower case, tempered glass side panel, airflow-focused design
Power Supply AG-650M-JP *1 Apexgaming 650 W, 80 PLUS Gold certified, fully-modular PSU

システムに関する注記・条件

  1. 電源容量: 650 W の電源は標準的な運用には十分ですが、CPU と GPU の両方に同時に高い負荷をかける場合、より大容量のPSU構成と比較して安定性が低下する可能性があります。(今後、750W 以上の PSU に交換予定です)

インストール済みおよび必要なソフトウェア

1. LM Studio – Core Local LLM Runtime

主な役割: LLM およびマルチモーダルモデル用のローカル推論エンジンおよびモデル管理ツール

テストしたモデル

主な機能と活用事例

LM Studioは複数の下流アプリケーションにAPIエンドポイントを提供することで、LLMをワークフローに容易かつ安定的に組み込むことができます。また、MCP(Model Context Protocol)ベースのウェブ検索統合機能により、ローカル環境でもインターネット上の情報を活用した高度な推論が可能です。この場合でも、ユーザーがインターネット検索の承認を都度行うことができるため、Local LLMの利点であるデータ流出の制御が可能です。

2. Kokoro-FastAPI – Local Text-to-Speech

主な役割: 高品質なローカル・テキスト読み上げ(TTS)生成

スタック

機能と活用事例

この構成により、クラウド API に依存することなく、許容可能な遅延と安定した音声品質で、完全にローカルな TTS 環境を実現しました。

3. n8n on WSL (Dockerized Automation)

主な役割: ワークフローの自動化とオーケストレーション

連携ツール

活用事例

公開されているn8nセットアップ用のDocker Compose YAMLファイルをそのまま、または一部編集することで、WSL環境でも柔軟かつ安定してn8nを導入できることが確認できました。また、同じノード構成で、外部APIの代わりにローカルLLMエンドポイントを組み合わせてワークフローを検証できるため、プロトタイプ作成用として有用であることも確認できました。

4. Visual Studio Code – AI-Assisted Development

主な役割: ローカル AI を活用したコードエディター

機能と統合

活用事例

このセットアップにより、日常的な開発タスクの多くで完全にローカルなAIコーディング環境を実現できることがわかりました。同時に、16GBのVRAMでは高度なLLMモデルを利用できないこと、シンプルなコーディングでもコンテキスト長が重要であるため、より多くのVRAMが必要だということも実感しました。2025年12月現在のGPUの性能と価格を考慮すると、AIコーディングには多くの場合、外部サービスを利用するのが現実的だと思われます。

5. ComfyUI – Image and Video Generation

ComfyUIをローカル環境にインストールする方法は、「Desktop Application」「Windows Portable Package」「Manual Install」の3つがあります。今回は柔軟性を重視して「Manual Install」を選択し、いくつかのワークフローをテストしました。より気軽に試してみたい方には、ダウンロードするだけですぐに起動できる「Portable Package」がおすすめです。

環境

テストしたモデルとワークフロー

活用事例

ComfyUIの柔軟性は実験に最適ですが、環境管理や依存関係の制御(PythonのバージョンやCUDAなど)には注意深い運用が必要です。また、動画生成においてはGPUメモリの制限が顕著に現れます。

全体のまとめ