LocalGPT: Rustで作成された27MBのローカルAIアシスタント
- GitHub Stars: 280
- 言語: Rust (93.1%)
- ライセンス: Apache-2.0
このプロジェクトが注目される理由
LocalGPTはローカルで動作するAIアシスタントである。データが外部に漏洩することはない。クラウドAIのプライバシーへの懸念が高まるにつれて、注目を集めている。[GitHub]
27MBの単一バイナリでNode.js、Docker、Pythonなしで動作する。開発者が4日間の夜間作業で完成させたという点も話題となっている。[GitHub]
何ができるのか?
- 永続的メモリ: MEMORY.mdに長期記憶を保存。SQLite FTS5とsqlite-vecで検索する。
- 自律作業: HEARTBEAT.mdで作業キューを自動処理する。
- 多様なインターフェース: CLI、ウェブUI、デスクトップGUI、HTTP APIをサポート。
- マルチLLM: Claude、OpenAI、Ollamaなど、複数のプロバイダに接続可能。
クイックスタート
# インストール
cargo install localgpt
# 対話型チャット
localgpt chat
# デーモンモード (ウェブUI + API)
localgpt daemon
どこで使うのが良いか?
機密データを扱う開発者に適している。会社のコードをクラウドにアップロードすることを躊躇する状況で役立つ。[GitHub]
個人知識管理ツールとしても適している。マークダウンベースなので、既存のノートとの統合が容易である。
注意点
- Rustビルド環境(cargo)が必要である。参入障壁となる可能性がある。
- Stars 280個の初期プロジェクトであるため、長期的なメンテナンスは注視する必要がある。
- Ollamaであれば完全ローカルだが、Claude/OpenAIを使うとAPI呼び出しは外部に送信される。
よくある質問 (FAQ)
Q: LocalGPTを使うとデータが外部に漏洩しないのか?
A: メモリと検索データはローカルのSQLiteに保存される。ただし、LLMとしてClaudeやOpenAIを使うと、会話内容が該当サーバーに送信される。完全なローカル実行を希望する場合は、OllamaのようなローカルLLMを使用する必要がある。プロバイダの選択によってプライバシーレベルが異なる。
Q: 永続的メモリはどのように動作するのか?
A: マークダウンファイルベースである。MEMORY.mdに長期記憶、knowledgeディレクトリに構造化された情報を保存する。SQLite FTS5でキーワード検索、sqlite-vecでセマンティック検索を実行する。セッションが変わっても以前のコンテキストを自動的に読み込む。
Q: 既存のAIツールと比較した利点は?
A: 27MBの単一バイナリで依存関係なしに実行可能である。cargo install 一行で済む。マークダウンメモリは直接読み書きできるため、透明性が高い。HEARTBEAT自律作業は他のローカルAIツールでは珍しい機能である。
この記事が役に立った場合は、AI Digesterを購読してください。
参考資料
- LocalGPT GitHubリポジトリ – GitHub (2026-02-08)
- LocalGPT README – GitHub (2026-02-08)
- Show HN: LocalGPT – Hacker News (2026-02-08)