Claude Codeに「記憶」を与えるA-MEM MCPが登場!セッションを超えた知識の蓄積が可能に

Claude Codeに「記憶」を与えるA-MEM MCPが登場!セッションを超えた知識の蓄積が可能に Claude Code

Claude Codeに「記憶」を与えるA-MEM MCPが登場!セッションを超えた知識の蓄積が可能に

Claude Codeのセッションが終わると、それまでの会話内容は消えてしまいます。この課題を解決する「A-MEM」というMCPサーバーがGitHubで公開されました。自己進化型の記憶システムにより、プロジェクトの知識をセッションを超えて蓄積・活用できるようになります。

この記事のポイント

  • A-MEMはClaude Code用の永続メモリシステム
  • 単なるストレージではなく、知識を自動的に関連付けるグラフ構造
  • ベクトル検索とグラフ探索を組み合わせた高度な検索機能
  • MCP(Model Context Protocol)に準拠し、簡単にセットアップ可能

A-MEMとは

A-MEM(Autonomous Memory)は、コーディングエージェント向けに設計された永続メモリシステムです。従来の単純なファイル保存とは異なり、保存した知識を自動的に整理し、関連する概念同士をつなげる「自己進化型」のアーキテクチャを採用しています。

新しい記憶が追加されるたびに、システムは既存の知識との関連性を分析し、知識ネットワークを動的に更新します。これにより、単にデータを保存するだけでなく、知識間の関係性も蓄積される「生きた知識ベース」が構築されます。

Claude Codeとの統合はMCPを通じて行われるため、特別なプログラミングなしに導入できます。一度セットアップすれば、Claude Codeが自動的にメモリ機能を活用するようになります。

主要機能

自己進化型アーキテクチャ

記憶を追加すると、LLMが自動的に以下の処理を行います。

  • キーワード抽出: 重要な概念を自動的に識別
  • コンテキスト情報の付与: 記憶の背景情報を補完
  • カテゴリタグの付与: 分類を自動化
  • 既存記憶との関連付け: 関連する過去の記憶とリンク

この自動化により、ユーザーは単に「覚えておいて」と指示するだけで、整理された形で知識が蓄積されていきます。

デュアルレイヤー検索

検索機能は2つのアプローチを組み合わせています。

  1. ベクトル類似検索: 意味的に近い記憶を見つける
  2. グラフ探索: 関連する記憶を辿って発見する

例えば「認証の実装方法」を検索すると、直接関連する記憶だけでなく、「セキュリティポリシー」「ユーザー管理」など関連トピックの記憶も一緒に取得できます。

実践してみよう

A-MEMのセットアップは、pipとClaude CLIで簡単に行えます。

# A-MEMのインストール
pip install a-mem

# Claude CodeにMCPサーバーとして登録
claude mcp add a-mem -s user -- a-mem-mcp \
  -e LLM_BACKEND=openai \
  -e LLM_MODEL=gpt-4o-mini \
  -e OPENAI_API_KEY=sk-...

セットアップ後、Claude Codeを起動すると自動的にメモリ機能が有効になります。「このプロジェクトでは〇〇を使う」といった情報を伝えると、次のセッションでも覚えています。

注意: 元記事に記載されているコマンドをそのまま記載しています。LLMバックエンドはOpenAI以外にOllama(ローカル実行)、SGLang、OpenRouterにも対応しています。

提供されるMCPツール

A-MEMは6つのツールをClaude Codeに提供します。

ツール 機能
add_memory_note 知識を非同期で保存
search_memories ベクトルベースの意味検索
search_memories_agentic グラフ探索を含む高度な検索
read_memory_note 記憶の詳細を取得
update_memory_note 保存した情報を更新
delete_memory_note 記憶を削除

これらのツールは、Claude Codeが必要に応じて自動的に呼び出します。

設定オプション

メモリの保存場所

デフォルトではプロジェクトディレクトリ内(./chroma_db)に保存されます。環境変数CHROMA_DB_PATHを設定することで、プロジェクト横断のグローバルメモリとしても使用できます。

export CHROMA_DB_PATH=/path/to/global/memory

LLMバックエンド

記憶の自動処理(キーワード抽出等)に使用するLLMは以下から選択できます。

  • OpenAI: GPT-4o-miniなど(推奨)
  • Ollama: ローカル実行
  • SGLang: 高速推論サーバー
  • OpenRouter: 複数モデルへのアクセス

コスト効率を考えると、記憶処理にはGPT-4o-miniなどの軽量モデルで十分です。

知っておくと便利なTips

  • プロジェクト固有 vs グローバル: 一般的なコーディング知識はグローバルメモリに、プロジェクト固有の情報はプロジェクトメモリに分けると効率的です。

  • セッション開始時のメモリ確認: 新しいセッションを開始したら「前回の作業について教えて」と聞くと、保存されたコンテキストを基に回答してくれます。

  • 重要な決定は明示的に記憶: 「この設計判断を覚えておいて」と明示的に指示することで、重要な情報が確実に保存されます。

  • 定期的なメモリ整理: 古くなった情報や不要になった記憶は削除し、ノイズを減らしましょう。

まとめ

A-MEMは、Claude Codeの大きな課題であった「セッション間の知識の断絶」を解決する有望なツールです。自己進化型のアーキテクチャにより、単なるメモ帳ではなく、プロジェクトの知識を成長させていく仕組みを提供します。MITライセンスで公開されており、自由に利用・改変できます。長期プロジェクトでClaude Codeを活用している方は、ぜひ試してみてください。


📎 元記事: https://github.com/DiaaAj/a-mem-mcp

コメント

タイトルとURLをコピーしました