模型目录
支持领先的开源模型
wylon Token工厂接入业界领先的开源模型系列:MiniMax、Kimi、GLM、Qwen、DeepSeek。所有模型在 wylon 新云的国产 GPU 底座与超节点架构上运行,统一API。
Frontiers
MiniMax
MiniMax
主打长上下文与生产力场景,适合文档处理、摘要、多轮业务对话。
代表MiniMax-M2.7 / M2.5
上下文长文本 / 结构化
适用企业知识 / 长文档
Moonshot
Kimi
多模态、超长上下文与代码类任务稳定,是 Agent 与研发工具链的常用底座。
代表Kimi-K2.6 / K2.5
上下文长对话 / 代码仓
适用Agent / IDE / 研究
智谱 · Z.ai
GLM
在中文语料上具备优势,覆盖通用对话、工具使用与智能体工程。
代表GLM-5.1
上下文通用对话 / 工具调用
适用智能客服 / 中文业务
通义千问
Qwen
模型线完整,从端侧小模型到旗舰 MoE 均已覆盖,兼顾性能与成本。
代表Qwen3.6
上下文通用 / 多语 / 多模态
适用内容 / RAG / 视觉
DeepSeek
DeepSeek
在推理、代码与数学任务上有口碑,MoE 路线提供了优秀的性价比。
代表DeepSeek-V4
上下文推理 / 代码 / 思维链
适用极速批处理 / Agent 规划
其他
模型列表请参考实际上线服务情况,定价请参见定价页或控制台。
模型家族上下文典型用途
Kimi-K2.5
Kimi
128k
长文档、知识问答、多轮对话
Kimi-K2.6
Kimi
128k
复杂推理、内容创作、专业问答
MiniMax-M2.5
MiniMax
256k
批量摘要、客服、内容生成
MiniMax-M2.7
MiniMax
256k
高质量生成、多轮对话、工具调用
GLM-5.1
GLM
128k
代码生成、结构化输出、智能客服
Qwen3.6-35B-A3B
Qwen
256k
数据分析、代码、工作流编排
Qwen3.6-27B
Qwen
256k
复杂推理、RAG、IDE 助手
DeepSeek-V4-Flash
DeepSeek
64k
高并发推理、摘要、分类审核
接入方式
同一套 wylon API
所有模型共用同一端点,切换 model 字段即可对比不同家族。
常见问题
切换模型需要改代码吗?
只需替换 model 字段,接口结构不变。若涉及工具调用或结构化输出,建议切换后跑一轮回归测试。
新模型上线后,我会被通知吗?
会。wylon 会通过控制台推送更新公告,重大变更会提前发送通知。
企业能申请专属访问吗?
请联系我们,解决方案团队会协助您评估方案。