Jan

AIローカルLLM

オープンソースのローカルAIチャットアプリ。GPT-4o・Claudeのクラウド接続に加え、Llama・Mistral等のローカルLLMをGUIで簡単に実行。プライバシー重視設計。

4.1
日本語対応: 一部対応
WindowsmacOSLinux

Janとは?

Jan(ジャン)は、ローカルファーストのオープンソースAIチャットアプリケーションです。美しく直感的なChatGPT風UIで、ローカルLLM(Llama 3、Mistral、Phi等)をワンクリックでダウンロード・実行でき、OpenAI・Anthropic等のクラウドAPIにも接続可能な統合AIチャット環境を提供します。 Janの最大の特徴は、ローカルLLMの利用を極限まで簡単にしている点です。内蔵のモデルハブから好みのモデルをワンクリックでダウンロードし、すぐにチャットを開始できます。llama.cppベースの推論エンジンにより、GPUなしのCPUのみでも動作可能(GPU利用でさらに高速化)。会話データはすべてローカルに保存され、プライバシーが完全に守られます。OpenAI互換のローカルAPIサーバー機能も搭載しており、他のアプリケーションからJanのモデルを呼び出すことも可能。拡張機能システムにより、カスタムツールやインテグレーションの追加もできます。

Janのスクリーンショット

料金プラン

1完全無料(オープンソース、AGPLv3)
2APIキーは各プロバイダーの料金が別途必要

主な機能・特徴

ローカルLLMのワンクリックダウンロード・実行
クラウドAPI接続(OpenAI / Anthropic / Google等)
OpenAI互換ローカルAPIサーバー
llama.cppベースの高効率推論エンジン
GPU(CUDA / Metal)・CPU両対応
会話履歴のローカル保存・エクスポート
拡張機能(プラグイン)システム
モデルハブからの簡単モデル管理

メリット・デメリット

メリット

  • ローカルLLMをワンクリックでダウンロード・実行
  • ChatGPT風の美しい直感的なUI
  • データが完全にローカルに保存されプライバシーを確保
  • CPUのみでも動作可能(GPU不要)
  • クラウドAPI(OpenAI・Anthropic等)にも対応
  • OpenAI互換のローカルAPIサーバー機能

デメリット

  • ローカルLLMの品質はGPT-4o・Claudeに劣る
  • 高性能モデルの実行にはハイスペックPCが必要
  • 日本語UIは未対応(英語のみ)
  • 拡張機能のエコシステムがまだ発展途上

よくある質問(FAQ)

Q. JanとOllamaの違いは何ですか?

A. Ollamaはコマンドライン中心のローカルLLM実行環境ですが、JanはGUI(グラフィカルUI)を備えたチャットアプリです。技術者以外でも使いやすい点がJanの強みです。Ollamaをバックエンドとして使うことも可能です。

Q. JanでGPUなしでもAIを使えますか?

A. はい、CPUのみでも動作します。Phi-3 Miniなどの軽量モデルであれば、RAM 8GBのPCでも快適に会話できます。ただし、大規模モデル(70Bパラメータ以上)の利用にはGPUが推奨されます。

Q. Janのデータはクラウドにアップロードされますか?

A. いいえ、Janはローカルファースト設計で、会話データ・モデルデータはすべてPC内に保存されます。クラウドAPIを使う場合のみ、その通信がプロバイダーに送信されます。

関連比較記事

関連するAI用語

関連ブログ記事

関連ツール

活用シーン・用途別ガイド

運営者が開発したAIマーケティングツール