OpenAI、自律型コーディングエージェントの安全策を詳細化
OpenAI
2026年5月10日 (日)
- •OpenAIは、自律型コーディングエージェントの挙動を実務環境で管理するための多層的なセキュリティ制御を導入した。
- •セキュリティ対策には、サンドボックス、厳格なネットワークアクセス制限、高リスク操作に対する段階的な承認ポリシーが含まれる。
- •エージェント固有のテレメトリを活用して監査ログをエクスポートし、セキュリティチームによる意図や活動の検証を可能にしている。
OpenAIは、コード生成システム「Codex」を安全な技術的境界内で展開するためのフレームワークを公表した。生産性を維持しつつリスクを軽減するため、同社はサンドボックス(ホストシステムから隔離された環境でソフトウェアを実行する仕組み)と、段階的な承認ポリシーを組み合わせて運用している。たとえば、日常的な低リスクのコーディング作業は手動レビューをバイパスする一方、危険性が伴う操作には人間の承認が必須となる。
システムには、保留中のリクエストの危険性を評価するサブエージェント「自動レビューモード」が組み込まれており、開発者のワークフローを効率化している。加えて、OpenAIはネットワークアクセスの厳格なポリシーを実施し、OSの安全なキーリングを通じてID認証情報を管理することで、全活動がエンタープライズワークスペースのログに確実に紐づく体制を整えている。
透明性は、エージェント固有のテレメトリによって担保される。システムイベント(プロンプト、承認判断、ツールの実行結果など)はOpenTelemetry(ソフトウェアのパフォーマンスデータを収集するためのフレームワーク)を介してログとして出力される。これらのログは専門のセキュリティトリアージエージェントによって解析され、特定のコーディングアクションの背後にある意図を再現することで、監査担当者やセキュリティチームにエージェントの行動に関する明確な可視性を提供する。