平台特色
OpenAI 兼容模式
weelinking采用OpenAI 兼容格式,让您可以用统一的接口调用200+主流大模型:- 支持的模型厂商:
- 🤖 OpenAI:gpt-4o、gpt-5-chat-latest、gpt-3.5-turbo等
- 🧠 Anthropic:claude-sonnet-4-20250514、claude-opus-4-1-20250805 等
- 💎 Google:gemini-2.5-pro、gemini-2.5-flash 等
- 🚀 xAI:grok-4-0709、grok-3 等
- 🔍 DeepSeek:deepSeek-r1、deepSeek-v3 等
- 🌟 阿里:Qwen系列模型
- 💬 Moonshot:Kimi模型等
功能支持范围
-
✅ 支持的功能:
- 💬 对话补全:Chat Completions接口
- 🖼️ 图像生成:gpt-image-1、flux-kontext-pro、flux-kontext-max 等
- 🔊 语音处理:Whisper转录
- 📊 嵌入向量:文本向量化
- ⚡ 函数调用:Function Calling
- 📡 流式输出:实时响应
- 🔧 OpenAI参数:temperature、top_p、max_tokens等
- 🆕 Responses端点:OpenAI最新功能
-
❌ 不支持的功能:
- 🔧 微调接口(Fine-tuning)
- 📁 Files管理接口
- 🏢 组织管理接口
- 💳 计费管理接口
简单切换模型
核心优势:一套代码,多种模型。用OpenAI格式跑通后,只需要更换模型名称即可切换到其他大模型:快速开始
获取API Key
- 访问weelinking控制台
- 登录您的账户
- 在令牌管理页面点击”新增”创建API Key
- 复制生成的API Key用于接口调用
查看请求示例
在令牌管理页面,您可以快速获取各种编程语言的代码示例(cURL, Python, Node.js, Java, C#, Go, PHP, Ruby等)。基础信息
- API 端点:
- 主要端点:
https://api.weelinking.com/v1 - 备用端点:
https://vip.weelinking.com/v1
- 主要端点:
- 认证方式:
- Header:
Authorization: Bearer YOUR_API_KEY
- Header:
- 请求格式:
- Content-Type:
application/json - 编码格式:UTF-8
- Content-Type:
核心接口
1. 对话补全(Chat Completions)
创建一个对话补全请求,支持多轮对话。-
请求端点:
POST /v1/chat/completions -
请求参数:
model(string, 必填): 模型名称messages(array, 必填): 对话消息数组temperature(number): 采样温度,0-2之间,默认1max_tokens(integer): 最大生成令牌数stream(boolean): 是否流式返回,默认false
-
完整代码示例 (cURL):
2. 文本补全(Completions)
为兼容旧版接口保留,建议使用Chat Completions。- 请求端点:
POST /v1/completions
3. 嵌入向量(Embeddings)
将文本转换为向量表示。- 请求端点:
POST /v1/embeddings
4. 图像生成(Images)
生成、编辑或变换图像。- 请求端点:
POST /v1/images/generations - 代码示例:
5. 音频转文字(Audio)
语音识别和转录。- 请求端点:
POST /v1/audio/transcriptions
6. 模型列表
获取可用模型列表。- 请求端点:
GET /v1/models
流式响应
开启流式输出
在请求中设置stream: true。
流式响应格式
响应将以Server-Sent Events (SSE) 格式返回:错误处理
常见错误码
401invalid_api_key: API密钥无效429insufficient_quota: 额度不足404model_not_found: 模型不存在400invalid_request_error: 请求参数错误500server_error: 服务器内部错误
最佳实践
- 请求优化: 合理设置
max_tokens,使用temperature控制随机性。 - 错误重试: 实现指数退避的重试机制。
- 安全建议: 保护API密钥,使用环境变量存储。
- 性能优化: 使用流式输出,缓存响应。