ケーススタディ一覧
エンタープライズ AI
マルチテナント AI アシスタント基盤 (Dify RAG / LLM チャットボット)
大手企業向けに、複数の部門がそれぞれ独自の知識ベースを持つマルチテナント AI アシスタント基盤を設計・開発。社内 RAG と外部 LLM を橋渡しする API 基盤を構築。
2025-09 〜 2026-03·役割: PG (5-14 名チーム)
TypeScriptPythonNext.jsFastAPIGKEDifyPinecone
課題
- 複数部門で AI アシスタントを使いたいが、部門ごとの機密情報が混在する基盤は作れない。
- 既存の Dify 実装がシングルテナント前提で、権限分離とログ分離が不足していた。
- LLM プロバイダ (Claude / OpenAI / Gemini) を柔軟に切り替えられる抽象化が必要だった。
打ち手
- テナント ID を JWT に埋め込み、Dify の API 呼び出し時に URL + header 両方で検証。
- Pinecone のベクトル空間をテナントごとに分離、クロステナント検索を API 層で物理的に禁止。
- LLM プロバイダ抽象化レイヤを FastAPI で実装、モデル切替を環境変数 + フィーチャーフラグで制御。
- GKE 上の Deployment をテナントグループごとに分散、リソース制限をテナント単位で設定。
技術選定の意思決定
なぜ Dify を採用したか
OSS で監査可能・プロンプト管理 UI が優秀・企業内デプロイが容易。自前実装だと 1-2 人月かかる UI/プロンプト管理機能を 2 週間で構築できた。
なぜ Pinecone をベクトル DB に選定したか
初期段階ではマルチテナントに対応できるベクトル DB が限られており、Pinecone の namespace 機能でテナント分離を実現できた。将来的には Weaviate / Milvus 等の OSS への移行も視野。
成果
対応テナント数
5 部門 → 20 部門以上
拡張性の実証
推論コスト
30% 削減
LLM 抽象化層で低コストモデル活用
プロンプト改善サイクル
2 週間 → 3 日
Dify UI で非エンジニア改修可能に
体制
当社エンジニア 1 名 + 元請・他社チーム 5-14 名