LocalGPT: Rustで書かれた27MBローカルAIアシスタント【2026】

LocalGPT: Rustで作成された27MBのローカルAIアシスタント

  • GitHub Stars: 280
  • 言語: Rust (93.1%)
  • ライセンス: Apache-2.0

このプロジェクトが注目される理由

LocalGPTはローカルで動作するAIアシスタントである。データが外部に漏洩することはない。クラウドAIのプライバシーへの懸念が高まるにつれて、注目を集めている。[GitHub]

27MBの単一バイナリでNode.js、Docker、Pythonなしで動作する。開発者が4日間の夜間作業で完成させたという点も話題となっている。[GitHub]

何ができるのか?

  • 永続的メモリ: MEMORY.mdに長期記憶を保存。SQLite FTS5とsqlite-vecで検索する。
  • 自律作業: HEARTBEAT.mdで作業キューを自動処理する。
  • 多様なインターフェース: CLI、ウェブUI、デスクトップGUI、HTTP APIをサポート。
  • マルチLLM: Claude、OpenAI、Ollamaなど、複数のプロバイダに接続可能。

クイックスタート

# インストール
cargo install localgpt

# 対話型チャット
localgpt chat

# デーモンモード (ウェブUI + API)
localgpt daemon

どこで使うのが良いか?

機密データを扱う開発者に適している。会社のコードをクラウドにアップロードすることを躊躇する状況で役立つ。[GitHub]

個人知識管理ツールとしても適している。マークダウンベースなので、既存のノートとの統合が容易である。

注意点

  • Rustビルド環境(cargo)が必要である。参入障壁となる可能性がある。
  • Stars 280個の初期プロジェクトであるため、長期的なメンテナンスは注視する必要がある。
  • Ollamaであれば完全ローカルだが、Claude/OpenAIを使うとAPI呼び出しは外部に送信される。

よくある質問 (FAQ)

Q: LocalGPTを使うとデータが外部に漏洩しないのか?

A: メモリと検索データはローカルのSQLiteに保存される。ただし、LLMとしてClaudeやOpenAIを使うと、会話内容が該当サーバーに送信される。完全なローカル実行を希望する場合は、OllamaのようなローカルLLMを使用する必要がある。プロバイダの選択によってプライバシーレベルが異なる。

Q: 永続的メモリはどのように動作するのか?

A: マークダウンファイルベースである。MEMORY.mdに長期記憶、knowledgeディレクトリに構造化された情報を保存する。SQLite FTS5でキーワード検索、sqlite-vecでセマンティック検索を実行する。セッションが変わっても以前のコンテキストを自動的に読み込む。

Q: 既存のAIツールと比較した利点は?

A: 27MBの単一バイナリで依存関係なしに実行可能である。cargo install 一行で済む。マークダウンメモリは直接読み書きできるため、透明性が高い。HEARTBEAT自律作業は他のローカルAIツールでは珍しい機能である。


この記事が役に立った場合は、AI Digesterを購読してください。

参考資料

コメントする