跳到主要內容

LLM 组件

我们提供了一些用于 LLM(大型语言模型)的组件,您可以轻松访问和分析金融数据、实时市场数据,甚至可以让 AI 提交订单。

是的,您可以通过 LongPort OpenAPI 使用我们的 LLM 组件,今天就开始吧!

LLMs 文本

OpenAPI 文档遵循 LLMs 文本 提供 llms.txt 以及每个文档的 Markdown 文件。

我们的每个文档也都提供 Markdown 格式,当您访问它们时,只需在 URL 后添加 .md 后缀。

例如:

MCP

我们正在为 LongPort OpenAPI 构建 MCP 实现(基于我们的 SDK),您可以在支持 MCP 的每个平台上使用它。

并且在我们的 GitHub 组织中也是开源的。

https://github.com/longportapp/openapi

安装

访问 https://github.com/longportapp/openapi/releases 下载最新版本。

使用

成功安装后,您将拥有一个 longport-mcp 命令行工具。

注意:您必须按照 快速开始 配置您的环境。

在启动 MCP 服务器之前,必须设置环境变量 LONGPORT_APP_KEYLONGPORT_APP_SECRETLONGPORT_ACCESS_TOKEN

在您的 AI 聊天中配置 LongPort MCP

在这一部分,我们将向您展示如何在您的 AI 聊天中配置 LongPort MCP(截图使用了 Cherry Studio)。

使用 STDIO 模式:

确保您已经配置了环境变量并在系统中安装了 longport-mcp 命令行工具。

使用 SSE 模式:

您必须先启动 SSE 服务器,可以使用以下命令:

longport-mcp --sse

然后配置您的 AI 聊天使用 http://localhost:8000