エッジ・クラウドエージェント向けプライバシー保護フレームワーク「MemPrivacy」
- •MemPrivacyは、型認識プレースホルダーを用いてエッジ・クラウド環境でのユーザーデータ漏洩を防ぐ。
- •MemPrivacy-4B-RLモデルは、独自の評価セットMemPrivacy-BenchでF1スコア85.97%および94.48%を記録した。
- •厳格な保護下でもシステム有用性の低下は1.6%に抑えられ、クラウド側の個人識別情報露出を低減する。
研究チームは、大規模言語モデル(LLM)を活用したエージェントの利便性を維持しつつ、ユーザーのプライバシーを保護するフレームワーク「MemPrivacy」を発表した。本システムは、エッジデバイス側でプライバシーに敏感な情報を検知し、意味構造を保持した型認識プレースホルダーに置換してからクラウドへ送信する仕組みを採用している。元のデータはローカルのSQLiteデータベースに安全に保存され、クラウド側での処理後に回答へ復元されるため、資格情報や医療記録、個人識別情報(PII)をクラウド上のメモリから隔離できる。
本フレームワークは、低感度の好みからAPIキーやリカバリーコードといった極秘情報まで対応する4段階のプライバシー分類(PL1~PL4)を導入している。性能評価には200人の合成ユーザーと5万2000件以上のプライバシー関連インスタンスを含む多重対話データセット「MemPrivacy-Bench」が用いられた。その結果、MemPrivacy-4B-RLはGPT-5.2やGemini-3.1-Proなどの汎用モデルを凌駕し、プライバシー情報の抽出においてF1スコア85.97%および94.48%を達成した。
Mem0、LangMem、Memobaseなどの既存メモリシステムで検証した結果、MemPrivacyはプライバシーと有用性のバランスを高度に維持している。PL2からPL4の厳格な保護ポリシーを適用しても、システム精度の低下は1.6%に留まり、タスクの意味的整合性を損なう従来のマスキング手法を大きく上回る性能を示した。また、デバイス上での効率的な展開を想定し、1メッセージあたりの処理遅延は1秒未満に制御されている。研究チームは、SFT(教師あり微調整)やRL(強化学習)手法を用いて訓練した4Bおよび1.7Bパラメータのモデルバリエーションを公開している。