LM Studio

AIローカルLLM

ローカルPC上で大規模言語モデル(LLM)を実行できるデスクトップアプリ。Llama、Mistral等のオープンソースモデルをGUI操作で簡単にダウンロード・実行。

4.4
日本語対応: 部分対応
WindowsMacLinux

LM Studioとは?

LM Studioは、大規模言語モデル(LLM)をローカルPC上で実行するためのデスクトップアプリケーションです。Llama 3、Mistral、Phi、Gemma、Qwen等の主要なオープンソースモデルを、プログラミング不要のGUI操作でダウンロード・実行できます。インターネット接続なしで完全にオフラインでAIを利用でき、データが外部に送信されないためプライバシーが完全に保たれます。 Hugging Face上の数千のモデルをアプリ内から直接検索・ダウンロードでき、GGUF形式の量子化モデルに対応してメモリ効率の良い推論が可能。ChatGPT互換のローカルAPIサーバー機能も内蔵しており、既存のアプリケーションやスクリプトからローカルLLMを呼び出すことも可能です。2026年現在、マルチモーダルモデル対応、RAG(検索拡張生成)機能、モデルの比較機能も追加。GPU不要でCPUのみでの動作も可能で、M1以降のMacでは特に高速に動作します。

LM Studioのスクリーンショット

料金プラン

1無料(完全無料、オープンソース)

主な機能・特徴

ローカルLLM実行(Llama、Mistral、Phi等)
GUIモデル検索・ダウンロード(Hugging Face連携)
ChatGPT互換ローカルAPIサーバー
GGUF量子化モデル対応(メモリ効率化)
マルチモーダルモデル対応

メリット・デメリット

メリット

  • 完全無料でオープンソースLLMをローカル実行
  • インターネット不要でプライバシーが完全に保護
  • GUIで直感的にモデルをダウンロード・管理
  • ChatGPT互換APIサーバー機能を内蔵

デメリット

  • 高性能なモデルにはGPU搭載PCが推奨される
  • クラウドAI(GPT-4o、Claude等)に比べると回答品質は劣る
  • モデルファイルが大きく(数GB〜数十GB)ストレージを消費する

よくある質問(FAQ)

Q. LM Studioは本当に無料ですか?

A. はい、LM Studio自体は完全無料で利用できます。実行するオープンソースモデルも無料でダウンロード可能です。クラウドへのデータ送信も一切なく、追加料金は発生しません。

Q. どのくらいのPCスペックが必要ですか?

A. 最小要件はRAM 8GB以上ですが、16GB以上を推奨します。GPUなしでも動作しますが、GPUがあると大幅に高速化されます。Apple Silicon(M1以降)のMacでは特に効率的に動作します。7B〜13Bパラメータのモデルであれば16GBのRAMで実用的に利用可能です。

Q. ChatGPTの代わりになりますか?

A. 日常的な質問や文章作成であれば十分代替可能です。ただし、GPT-4oやClaude 4レベルの最先端モデルに比べると回答品質は劣ります。プライバシーを最優先する場合や、インターネット接続なしで使いたい場合に最適な選択肢です。

関連比較記事

関連するAI用語

関連ブログ記事

関連ツール

活用シーン・用途別ガイド

運営者が開発したAIマーケティングツール