Fire in da houseTop Tip:Paying $100+ per month for Perplexity, MidJourney, Runway, ChatGPT and other tools is crazy - get all your AI tools in one site starting at $15 per month with Galaxy AI Fire in da houseCheck it out free

serverless-rag-mcp-server

MCP.Pizza Chef: sionic-ai

The serverless-rag-mcp-server is an MCP server enabling seamless integration between LLM applications and RAG data sources using the Storm Platform and Sionic AI. It implements the Model Context Protocol to standardize context sharing, tool invocation, and file management, allowing developers to build powerful retrieval-augmented generation solutions with custom embedding models and vector databases via API tokens from Sionic Storm.

Use This MCP server To

Integrate LLMs with custom embedding models and vector databases Standardize tool invocation for RAG workflows Manage files for document upload and retrieval in LLM apps Connect to Storm Platform APIs for advanced RAG features Enable context sharing between LLMs and external data sources

README

Storm MCP Server with Sionic AI serverless RAG

Korean (한국어)

Storm MCP(Model Context Protocol) Server

Storm MCP(Model Context Protocol) 서버는 LLM 애플리케이션과 RAG 데이터 소스 및 도구들 간의 원활한 통합을 가능하게 하는 개방형 프로토콜입니다. Anthropic의 Model Context Protocol을 구현하여 Claude Desktop에서 Storm Platform을 바로 이용합니다.

Sionic AI 의 Storm Platform 를 통합해서 사용하여 나만의 강력한 임베딩 모델과 벡터DB 제품군을 연결하여 사용할 수 있습니다. https://sionicstorm.ai 에서 에이전트 단위로 가입하여서 API Token을 얻어서 RAG 솔루션을 바로 만드실 수 있습니다.

사용 예시

example image example image 2 example image 3

API Key는 scripts/run.sh 에 존재하는 export STORM_API_KEY='' 에 입력하세요.

주요 기능
  • 컨텍스트 공유: LLM과 데이터 소스 간의 상호작용을 위한 표준 프로토콜을 제공합니다.
  • 도구 시스템: 도구를 정의하고 호출하는 표준화된 방식을 제공합니다(send_nonstream_chat, list_agents, list_buckets, upload_document_by_file 등).
  • 파일 관리: 파일 업로드, 읽기 및 관리를 위한 파일 시스템 작업을 구현합니다.
  • API 통합: Storm의 API 엔드포인트와 연결하여 다양한 기능을 제공합니다.
프로젝트 구조
  • main.py: MCP 서버를 초기화하고 이벤트 핸들러를 설정합니다.
  • core/file_manager.py: 파일 작업을 위한 FileSystemManager 클래스를 구현합니다.
  • core/internal_api.py: Storm의 REST API 엔드포인트와 상호 작용하기 위한 API 클라이언트 함수를 포함합니다.
  • tools/tool_definitions.py: MCP 서버에서 사용 가능한 도구를 정의합니다.
  • tools/tool_handlers.py: 도구 작업을 위한 핸들러를 구현합니다.
  • tools/tool_upload_file.py: 자체 MCP 핸들러가 있는 파일 작업을 위한 별도의 파일 서버를 구현합니다.
아키텍처

MCP는 호스트(LLM 애플리케이션), 클라이언트(프로토콜 구현체), 서버(기능 제공자) 간의 3계층 구조로 설계되었습니다. Storm MCP 서버는 이 중 서버 부분을 구현하여 리소스와 도구를 LLM에 제공합니다.

시작하기

Claude Desktop 환경에서 MCP 서버를 연결하려면, 아래와 같은 설정을 적용해야 합니다.

example image

  1. 설정 파일 열기
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
  1. JSON 내부에 MCP 서버 설정 추가:
{
  "mcpServers": {
    "storm": {
      "command": "sh",
      "args": [
        "/Users/sigridjineth/Desktop/work/storm-mcp-server/scripts/run.sh"
      ]
    }
  }
}

Japanese (日本語)

Storm MCP(Model Context Protocol) Server

Storm MCP(Model Context Protocol) サーバーは、LLMアプリケーションとRAGデータソースおよびツール間のシームレスな統合を可能にするオープンプロトコルです。 AnthropicのModel Context Protocolを実装し、Claude DesktopでStorm Platformを直接利用できます。

Sionic AI の Storm Platform を統合して使用することで、自分だけの強力な埋め込みモデルとベクターDB製品群を接続して利用できます。 https://sionicstorm.ai でエージェント単位で登録してAPIトークンを取得し、すぐにRAGソリューションを作成できます。

使用例

example image example image 2 example image 3

APIキーは scripts/run.shexport STORM_API_KEY='' に入力してください。

主な機能
  • コンテキスト共有: LLMとデータソース間の相互作用のための標準プロトコルを提供します。
  • ツールシステム: ツールを定義し呼び出すための標準化された方法を提供します(send_nonstream_chat、list_agents、list_buckets、upload_document_by_fileなど)。
  • ファイル管理: ファイルのアップロード、読み込み、管理のためのファイルシステム操作を実装します。
  • API統合: StormのAPIエンドポイントと接続し、様々な機能を提供します。
プロジェクト構造
  • main.py: MCPサーバーを初期化し、イベントハンドラーを設定します。
  • core/file_manager.py: ファイル操作のためのFileSystemManagerクラスを実装します。
  • core/internal_api.py: StormのRESTAPIエンドポイントと相互作用するためのAPIクライアント関数を含みます。
  • tools/tool_definitions.py: MCPサーバーで利用可能なツールを定義します。
  • tools/tool_handlers.py: ツール操作のためのハンドラーを実装します。
  • tools/tool_upload_file.py: 独自のMCPハンドラーを持つファイル操作のための別個のファイルサーバーを実装します。
アーキテクチャ

MCPは、ホスト(LLMアプリケーション)、クライアント(プロトコル実装)、サーバー(機能提供者)間の3層構造で設計されています。Storm MCPサーバーはこのうちサーバー部分を実装し、リソースとツールをLLMに提供します。

始め方

Claude Desktop 環境でMCPサーバーを接続するには、以下の設定を適用する必要があります。

example image

  1. 設定ファイルを開く
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
  1. JSON内にMCPサーバー設定を追加:
{
  "mcpServers": {
    "storm": {
      "command": "sh",
      "args": [
        "/Users/sigridjineth/Desktop/work/storm-mcp-server/scripts/run.sh"
      ]
    }
  }
}

serverless-rag-mcp-server FAQ

How do I obtain the API token for using the serverless-rag-mcp-server?
You can sign up on the Sionic Storm platform at https://sionicstorm.ai to get an API token for RAG solutions.
What tools does the server support for interaction?
It supports standardized tool calls like send_nonstream_chat, list_agents, list_buckets, and upload_document_by_file.
How does the server handle file management?
It implements file system operations for uploading, reading, and managing files to support document handling in LLM workflows.
Can this server be used with multiple LLM providers?
Yes, it is designed to work with various LLMs including Claude, OpenAI, and Gemini by adhering to the MCP standard.
Is the serverless-rag-mcp-server open source?
The server implements the open Model Context Protocol and integrates with open platforms, but check the specific repository for licensing details.
How does the server facilitate context sharing?
It provides a standard protocol for sharing context between LLMs and data sources to enable real-time, multi-step reasoning.
What is required to start using the server?
You need to set your API key in the environment variable (e.g., export STORM_API_KEY='') as shown in the provided scripts.
Does the server support real-time interaction with RAG data sources?
Yes, it enables real-time context flow and tool calling for retrieval-augmented generation workflows.