SterriaR logo
SterriaR
ケーススタディ一覧
エンタープライズ AI

マルチテナント AI アシスタント基盤 (Dify RAG / LLM チャットボット)

大手企業向けに、複数の部門がそれぞれ独自の知識ベースを持つマルチテナント AI アシスタント基盤を設計・開発。社内 RAG と外部 LLM を橋渡しする API 基盤を構築。

2025-09 〜 2026-03·役割: PG (5-14 名チーム)
TypeScriptPythonNext.jsFastAPIGKEDifyPinecone

課題

  • 複数部門で AI アシスタントを使いたいが、部門ごとの機密情報が混在する基盤は作れない。
  • 既存の Dify 実装がシングルテナント前提で、権限分離とログ分離が不足していた。
  • LLM プロバイダ (Claude / OpenAI / Gemini) を柔軟に切り替えられる抽象化が必要だった。

打ち手

  • テナント ID を JWT に埋め込み、Dify の API 呼び出し時に URL + header 両方で検証。
  • Pinecone のベクトル空間をテナントごとに分離、クロステナント検索を API 層で物理的に禁止。
  • LLM プロバイダ抽象化レイヤを FastAPI で実装、モデル切替を環境変数 + フィーチャーフラグで制御。
  • GKE 上の Deployment をテナントグループごとに分散、リソース制限をテナント単位で設定。

技術選定の意思決定

なぜ Dify を採用したか

OSS で監査可能・プロンプト管理 UI が優秀・企業内デプロイが容易。自前実装だと 1-2 人月かかる UI/プロンプト管理機能を 2 週間で構築できた。

なぜ Pinecone をベクトル DB に選定したか

初期段階ではマルチテナントに対応できるベクトル DB が限られており、Pinecone の namespace 機能でテナント分離を実現できた。将来的には Weaviate / Milvus 等の OSS への移行も視野。

成果

対応テナント数

5 部門 → 20 部門以上

拡張性の実証

推論コスト

30% 削減

LLM 抽象化層で低コストモデル活用

プロンプト改善サイクル

2 週間 → 3 日

Dify UI で非エンジニア改修可能に

体制

当社エンジニア 1 名 + 元請・他社チーム 5-14 名

類似のご要件はありませんか?

業界・規模・技術スタックが近いお悩みがあれば、お気軽にご相談ください。

無料相談する