Developer Workspace

完全无缝的开发者中心。体验下一代 AI 路由分发器。

开发者极速鉴权

请先登入控制台,获取您的私权 Universal API Key,一键横跨调用全球算力模型。

SDK Download 环境构筑包

Python 官方包

weclaw-python - v1.2.0 (27KB)

Node.js 生态包

weclaw-node - v1.0.5 (18KB)

Virtual Sandbox 云端连通性测试

WeClaw Live Engine Routing — tty1
> 等待沙盒指令...

API Documentation REST Reference

POST https://api.weclaw.com/v1/chat/completions
参数 (Parameter) 说明 (Description)
model string Required 指定路由分发池中的大模型标识符。支持厂商:
gpt-4o qwen-max kimi-200k
messages array of objects Required 上下文对话数组。需要包含 role (system/user/assistant) 和 content (对话内容)。完全兼容 OpenAI 官方数据结构。
stream boolean 是否开启 SSE (Server-Sent Events) 流式逐字返回。推荐设为 true 以获得极速打字机体验,降低首字响应时间 (TTFT)。

快捷调用 原生直连范例

Python (OpenAI SDK) pip install openai
from openai import OpenAI # 无缝替换基座地址和 Token client = OpenAI( api_key="wc-YOUR_API_KEY_HERE", base_url="https://api.weclaw.com/v1" ) response = client.chat.completions.create( model="qwen-max", messages=[{"role": "user", "content": "Hello, WeClaw!"}] ) print(response.choices[0].message.content)
cURL (Terminal) Bash / Zsh
curl https://api.weclaw.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer wc-YOUR_API_KEY_HERE" \ -d '{ "model": "gpt-4o", "messages": [{"role": "user", "content": "Hello"}], "stream": true }'