硅基流动 SiliconFlow API 完整调研:国产AI模型平台
硅基流动 SiliconFlow API 完整调研报告
调研时间:2026-02-08 官方文档:https://docs.siliconflow.cn/ 价格页面:https://siliconflow.cn/pricing 模型广场:https://www.siliconflow.cn/models
1. API 基础信息
Base URL
https://api.siliconflow.cn/v1
认证方式
- 使用 Bearer Token 认证
- API Key 在 https://cloud.siliconflow.cn/ 注册后获取
- 新用户注册送 14 元余额(约 2000 万 Tokens)
- 邀请注册可再获 14 元
兼容性
完全兼容 OpenAI API 格式,可直接使用 openai Python SDK,只需修改 base_url 和 api_key。
2. 可用模型完整列表(2026年2月)
2.1 免费 LLM 模型(15个,输入输出均为 0 元)
| 模型 ID | 类型 | 说明 |
|---|---|---|
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B | 推理 | DeepSeek-R1 蒸馏版 7B |
deepseek-ai/DeepSeek-R1-0528-Qwen3-8B | 推理 | R1 最新蒸馏版 |
deepseek-ai/DeepSeek-OCR | 视觉 | OCR 专用 |
Qwen/Qwen3-8B | 通用 | Qwen3 系列免费版 |
Qwen/Qwen2.5-7B-Instruct | 通用 | Qwen2.5 免费版 |
Qwen/Qwen2.5-Coder-7B-Instruct | 代码 | 代码专用 |
Qwen/Qwen2-7B-Instruct | 通用 | Qwen2 |
THUDM/GLM-4.1V-9B-Thinking | 多模态+推理 | GLM 视觉推理免费版 |
THUDM/GLM-Z1-9B-0414 | 推理 | GLM 推理版 |
THUDM/GLM-4-9B-0414 | 通用 | GLM-4 |
THUDM/glm-4-9b-chat | 通用 | GLM-4 对话 |
tencent/Hunyuan-MT-7B | 翻译 | 腾讯混元翻译 |
internlm/internlm2_5-7b-chat | 通用 | 书生浦语 |
PaddlePaddle/PaddleOCR-VL | 视觉 | 百度 OCR |
PaddlePaddle/PaddleOCR-VL-1.5 | 视觉 | 百度 OCR 1.5 |
2.2 付费 LLM 模型(主流,价格:元/M tokens)
| 模型 ID | 输入价 | 输出价 | 说明 |
|---|---|---|---|
deepseek-ai/DeepSeek-V3 | 2.00 | 8.00 | DeepSeek V3 满血版 |
deepseek-ai/DeepSeek-V3-0324 | 2.00 | 8.00 | V3 更新版 |
deepseek-ai/DeepSeek-V3.1 | 2.00 | 8.00 | V3.1 混合思考版 |
deepseek-ai/DeepSeek-R1 | 4.00 | 16.00 | R1 满血版 671B |
deepseek-ai/DeepSeek-R1-0528 | 4.00 | 16.00 | R1 最新版 |
Qwen/Qwen3-235B-A22B-Instruct | 2.50 | 10.00 | Qwen3 旗舰 MoE |
Qwen/Qwen3-30B-A3B | 1.26 | 1.26 | Qwen3 小 MoE |
Qwen/Qwen2.5-72B-Instruct | 4.13 | 4.13 | Qwen2.5 旗舰 |
moonshotai/Kimi-K2-Thinking | 4.00 | 16.00 | Kimi K2 思考版 |
moonshotai/Kimi-K2.5 (Pro) | 4.00 | 21.00 | Kimi K2.5 最新 |
MiniMaxAI/MiniMax-M1-80k | 4.00 | 16.00 | MiniMax M1 |
deepseek-ai/DeepSeek-R1-Distill-Qwen-14B | 0.70 | 0.70 | R1 蒸馏 14B |
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B | 1.26 | 1.26 | R1 蒸馏 32B |
deepseek-ai/DeepSeek-R1-Distill-Llama-70B | 4.13 | 4.13 | R1 蒸馏 70B |
Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B | 0.35 | 0.35 | 7B 加速版 |
Pro/ 前缀说明:同一个模型,
Pro/前缀版本是付费加速版,无前缀的免费版本速率和并发较低。
2.3 多模态视觉模型
| 模型 ID | 支持模态 | 说明 |
|---|---|---|
Qwen/Qwen2.5-VL-72B-Instruct | 图片+视频 | Qwen2.5 视觉旗舰 |
Qwen/Qwen3-VL-235B-A22B | 图片+视频 | Qwen3 视觉 MoE |
Qwen/Qwen3-Omni | 图片+视频+音频 | Qwen3 全模态 |
THUDM/GLM-4.1V-9B-Thinking | 图片 | GLM 视觉推理(免费) |
deepseek-ai/DeepSeek-OCR | 图片+PDF | OCR 专用(免费) |
PaddlePaddle/PaddleOCR-VL | 图片 | 百度 OCR(免费) |
2.4 图片生成模型
| 模型 ID | 价格 | 说明 |
|---|---|---|
Qwen/Qwen-Image | 0.3 元/张 | 通义文生图 |
Qwen/Qwen-Image-Edit | 0.3 元/张 | 通义图片编辑 |
Qwen/Qwen-Image-Edit-2509 | 0.3 元/张 | 图片编辑新版 |
Kwai-Kolors/Kolors | - | 快手可图 |
注意:FLUX 和 Stable Diffusion 模型在 SiliconFlow 上也曾上线过(FLUX.1-schnell、stable-diffusion-3-5-large-turbo),但模型列表会不定期更新,请以官网模型广场为准。
2.5 语音模型
语音转文本(STT):
| 模型 ID | 说明 |
|---|---|
FunAudioLLM/SenseVoiceSmall | 阿里 FunAudioLLM,支持多语言 |
TeleAI/TeleSpeechASR | 中国电信 ASR |
文本转语音(TTS):
| 模型 ID | 说明 |
|---|---|
FunAudioLLM/CosyVoice2-0.5B | 跨语言语音合成(中英日韩+方言) |
fnlp/MOSS-TTSD-v0.5 | 高表现力语音合成 |
fishaudio/fish-speech-1.5 | Fish Audio 语音克隆 |
TTS 预置音色(8个):alex / benjamin / charles / david / anna / bella / claire / diana
2.6 嵌入模型(Embedding)
| 模型 ID | 最大 Token | 说明 |
|---|---|---|
BAAI/bge-large-zh-v1.5 | 512 | 中文嵌入 |
BAAI/bge-large-en-v1.5 | 512 | 英文嵌入 |
BAAI/bge-m3 | 8192 | 多语言嵌入 |
Qwen/Qwen3-Embedding-0.6B | 32768 | Qwen3 嵌入小版 |
Qwen/Qwen3-Embedding-4B | 32768 | Qwen3 嵌入中版 |
Qwen/Qwen3-Embedding-8B | 32768 | Qwen3 嵌入大版 |
2.7 视频生成模型
| 模型 ID | 价格 | 说明 |
|---|---|---|
Wan2.2-T2V-A14B | 2 元/视频 | 文生视频 |
3. Python 调用完整代码示例
3.1 环境准备
pip install openai python-dotenv requests
# .env 文件
SILICONFLOW_API_KEY=sk-xxxxxxxxxxxxx
3.2 LLM 对话(基础)
import os
from openai import OpenAI
from dotenv import load_dotenv
load_dotenv()
client = OpenAI(
api_key=os.getenv("SILICONFLOW_API_KEY"),
base_url="https://api.siliconflow.cn/v1"
)
# 基础对话
response = client.chat.completions.create(
model="Qwen/Qwen3-8B", # 免费模型
messages=[
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "用一句话解释什么是大语言模型"}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)
3.3 流式输出
stream = client.chat.completions.create(
model="deepseek-ai/DeepSeek-V3",
messages=[
{"role": "user", "content": "写一首关于AI的七言绝句"}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="", flush=True)
# 推理模型(如 DeepSeek-R1)还可获取思考过程
# reasoning = getattr(chunk.choices[0].delta, 'reasoning_content', None)
# if reasoning:
# print(f"[思考] {reasoning}", end="", flush=True)
3.4 推理模型(DeepSeek-R1)
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-R1",
messages=[
{"role": "user", "content": "9.11和9.8哪个大?请详细推理。"}
],
stream=True
)
for chunk in response:
delta = chunk.choices[0].delta
# 思考过程
reasoning = getattr(delta, 'reasoning_content', None)
if reasoning:
print(f"💭 {reasoning}", end="", flush=True)
# 最终回答
if delta.content:
print(delta.content, end="", flush=True)
3.5 多模态视觉(图片理解)
response = client.chat.completions.create(
model="Qwen/Qwen2.5-VL-72B-Instruct",
messages=[
{
"role": "user",
"content": [
{
"type": "image_url",
"image_url": {
"url": "https://example.com/image.jpg",
"detail": "high" # auto / low / high
}
},
{
"type": "text",
"text": "请描述这张图片的内容"
}
]
}
]
)
print(response.choices[0].message.content)
使用 Base64 编码图片:
import base64
with open("local_image.png", "rb") as f:
img_base64 = base64.b64encode(f.read()).decode()
response = client.chat.completions.create(
model="Qwen/Qwen2.5-VL-72B-Instruct",
messages=[
{
"role": "user",
"content": [
{
"type": "image_url",
"image_url": {
"url": f"data:image/png;base64,{img_base64}"
}
},
{"type": "text", "text": "这张图片里有什么?"}
]
}
]
)
3.6 多模态视频理解
response = client.chat.completions.create(
model="Qwen/Qwen2.5-VL-72B-Instruct",
messages=[
{
"role": "user",
"content": [
{
"type": "video_url",
"video_url": {
"url": "https://example.com/video.mp4",
"max_frames": 16,
"fps": 1
}
},
{"type": "text", "text": "描述这个视频的内容"}
]
}
]
)
Qwen3 Omni 模型建议视频时长控制在 30 秒内,帧数 max_frames=8-16,fps=1-2。
3.7 图片生成
import requests
import os
from dotenv import load_dotenv
load_dotenv()
headers = {
"Authorization": f"Bearer {os.getenv('SILICONFLOW_API_KEY')}",
"Content-Type": "application/json"
}
payload = {
"model": "Qwen/Qwen-Image",
"prompt": "A cute cat sitting on a windowsill, watercolor style",
"image_size": "1024x1024",
"num_inference_steps": 20,
"seed": 42
}
response = requests.post(
"https://api.siliconflow.cn/v1/images/generations",
json=payload,
headers=headers
)
result = response.json()
image_url = result["images"][0]["url"]
print(f"图片URL(1小时内有效): {image_url}")
# 立即下载保存
import urllib.request
urllib.request.urlretrieve(image_url, "generated_image.png")
print("图片已保存到 generated_image.png")
Kolors 模型(支持负向提示词和批量生成):
payload = {
"model": "Kwai-Kolors/Kolors",
"prompt": "一只橘猫在阳光下打盹",
"negative_prompt": "低质量, 模糊, 变形",
"image_size": "1024x1024",
"batch_size": 2, # 一次生成2张(最多4张)
"num_inference_steps": 20,
"guidance_scale": 7.5, # 提示匹配度
"seed": 12345
}
重要:生成的图片 URL 有效期仅 1 小时,必须及时下载保存。
3.8 语音转文本(STT)
# 方式1:使用 OpenAI SDK
audio_file = open("audio.mp3", "rb")
transcript = client.audio.transcriptions.create(
model="FunAudioLLM/SenseVoiceSmall",
file=audio_file,
response_format="text"
)
print(transcript)
# 方式2:使用 requests
import requests
url = "https://api.siliconflow.cn/v1/audio/transcriptions"
headers = {"Authorization": f"Bearer {os.getenv('SILICONFLOW_API_KEY')}"}
with open("audio.mp3", "rb") as f:
files = {"file": f}
data = {"model": "FunAudioLLM/SenseVoiceSmall"}
response = requests.post(url, headers=headers, files=files, data=data)
print(response.json()["text"])
限制:音频时长不超过 1 小时,文件大小不超过 50MB。
3.9 文本转语音(TTS)
# 使用 OpenAI SDK
with client.audio.speech.with_streaming_response.create(
model="FunAudioLLM/CosyVoice2-0.5B",
voice="FunAudioLLM/CosyVoice2-0.5B:alex", # 预置音色
input="你好,欢迎使用硅基流动的语音合成服务。",
response_format="mp3",
speed=1.0 # 0.25-4.0
) as response:
response.stream_to_file("output.mp3")
print("语音已保存到 output.mp3")
预置音色列表:
- 男声:
模型名:alex/模型名:benjamin/模型名:charles/模型名:david - 女声:
模型名:anna/模型名:bella/模型名:claire/模型名:diana
3.10 嵌入模型(Embedding)
# 方式1:使用 OpenAI SDK
embedding = client.embeddings.create(
model="BAAI/bge-m3",
input="硅基流动是一个AI模型服务平台"
)
vector = embedding.data[0].embedding
print(f"向量维度: {len(vector)}")
# 批量嵌入
embeddings = client.embeddings.create(
model="BAAI/bge-m3",
input=[
"第一段文本",
"第二段文本",
"第三段文本"
]
)
for item in embeddings.data:
print(f"Index {item.index}: 维度 {len(item.embedding)}")
# 方式2:使用 Qwen3 Embedding(支持自定义维度)
embedding = client.embeddings.create(
model="Qwen/Qwen3-Embedding-8B",
input="测试文本",
dimensions=1024 # 可自定义输出维度
)
3.11 查看可用模型列表
# 列出所有可用模型
models = client.models.list()
for model in models.data:
print(model.id)
4. 价格体系总结
4.1 LLM 模型价格分级(元/M tokens)
| 价格段 | 典型模型 | 输入 | 输出 |
|---|---|---|---|
| 免费 | Qwen3-8B, DeepSeek-R1-Distill-7B, GLM-4-9B | 0 | 0 |
| 低价(<1元) | DeepSeek-R1-Distill-14B (Pro版) | 0.35-0.70 | 0.35-0.70 |
| 中价(1-4元) | Qwen3-30B, DeepSeek-R1-Distill-32B | 1.26 | 1.26 |
| 标准(2-5元) | DeepSeek-V3, Qwen3-235B | 2.00-4.13 | 4.13-10.00 |
| 旗舰(4-16元) | DeepSeek-R1, Kimi-K2, MiniMax-M1 | 4.00 | 16.00 |
| 顶级(>16元) | Kimi-K2.5 (Pro) | 4.00 | 21.00 |
4.2 其他服务价格
| 服务 | 价格 |
|---|---|
| 图片生成 | 0.3 元/张 |
| 视频生成 | 2 元/视频 |
| 模型微调(训练) | 3.50-41.30 元/M tokens |
| 批量处理 | 0.50-2.00 元/M tokens(输入) |
4.3 与其他平台价格对比(DeepSeek-R1 满血版)
| 平台 | 输入价 | 输出价 |
|---|---|---|
| DeepSeek 官方 | 4.00 | 16.00 |
| 硅基流动 | 4.00 | 16.00 |
| 阿里云百炼 | 4.00 | 16.00 |
| 火山引擎 | 4.00 | 16.00 |
主流平台价格基本一致,硅基流动的优势在于:模型种类多、免费模型丰富、OpenAI 兼容格式开箱即用。
5. 速率限制和配额
5.1 用户等级体系
| 等级 | 月消费(元) | 说明 |
|---|---|---|
| L0 | < 50 | 新用户初始等级 |
| L1 | 50-199 | |
| L2 | 200-1,999 | |
| L3 | 2,000-4,999 | |
| L4 | 5,000-9,999 | |
| L5 | >= 10,000 | 最高等级 |
5.2 速率限制示例
| 维度 | L0 (新用户) | L5 (最高) |
|---|---|---|
| RPM(每分钟请求数) | 500-1,000 | 10,000 |
| TPM(每分钟Token数) | 20,000-80,000 | 1,000,000-5,000,000 |
| IPM(每分钟图片数) | 2 | 更高 |
| IPD(每天图片数) | 400 | 更高 |
5.3 关键规则
- 每个模型单独计算速率限制,A 模型超限不影响 B 模型
- 等级自动升级:取上月总消费和当月已消费的较大值
- 超限返回 HTTP 429 (Too Many Requests)
- 免费模型的速率限制低于 Pro 付费版
6. 实用提示
免费模型使用建议
- 开发调试阶段用免费模型(Qwen3-8B、GLM-4-9B-0414)
- 生产环境需要更高性能和并发时,用 Pro 版或更大参数模型
- OCR 场景可用免费的 DeepSeek-OCR 或 PaddleOCR-VL
免费 vs Pro 版区别
同一个基础模型,免费版和 Pro 版的区别:
- Pro 版有更高的速率限制
- Pro 版有更快的推理速度(优先级更高)
- 模型本身的能力完全一致
图片生成注意事项
- 图片 URL 有效期仅 1 小时,生成后必须立即下载
- Kolors 支持批量生成(batch_size 最多 4)和负向提示词
- 不同模型支持不同的分辨率,注意选择
语音转写注意事项
- 文件大小上限 50MB,时长上限 1 小时
- SenseVoiceSmall 支持多语言自动检测
- 返回纯文本,不含时间戳
7. 快速参考:环境变量配置
# .env 文件
SILICONFLOW_API_KEY=sk-your-api-key-here
# 标准初始化代码
import os
from openai import OpenAI
from dotenv import load_dotenv
load_dotenv()
client = OpenAI(
api_key=os.getenv("SILICONFLOW_API_KEY"),
base_url="https://api.siliconflow.cn/v1"
)
信息来源
相关报告
Claude Code Skills 深度调研:AI编程助手的技能扩展机制
Claude Code Skills 机制详解,包括 SKILL.md 格式、社区生态、自定义技能开发最佳实践。
OpenRouter API 深度调研:多模型统一接入方案
OpenRouter API 完整配置指南,涵盖模型对比、价格分析、最佳实践,帮助开发者快速接入多种 AI 模型。
火山引擎方舟 API 平台深度调研
字节跳动火山引擎方舟 API 平台功能、定价、模型选择与竞争力分析,企业级 AI 服务选型参考。