AnLinkAI

模型目录

选择适合第一批内测工作负载的中国 AI 模型路由。

在创建 API Key 并发送第一次请求前,先比较 AnLinkAI 模型 ID、供应商路由和内测 token 价格。

5条模型路由可用于内测比较
USD / 1M测试前展示输入和输出 token 价格
One key通过控制台访问已启用模型 ID

目录

当前公开模型路由

先从小 prompt 开始,在控制台确认用量日志,并把精确模型 ID 放在服务端配置中。

Qwen Flash

qwen-flash

active
供应商
Qwen
输入 / 1M
$0.07
输出 / 1M
$0.20
内测匹配度
适合首次 API 测试和 prompt 调优的低成本快速验证。
适用场景
客服机器人、翻译、路由、抽取和轻量 agent 步骤。

Qwen 3.5 Flash

qwen3.5-flash

敬请期待
供应商
Qwen
输入 / 1M
敬请期待
输出 / 1M
敬请期待
内测匹配度
敬请期待
适用场景
敬请期待

DeepSeek V4 Flash

deepseek-v4-flash

active
供应商
DeepSeek
输入 / 1M
$0.70
输出 / 1M
$1.40
内测匹配度
DeepSeek 官方 Flash 路由,适合引导式冒烟测试和内测流量。
适用场景
通用对话、编码辅助、分析和生产试跑请求。

GLM-5

glm-5

active
供应商
Zhipu
输入 / 1M
$1.20
输出 / 1M
$3.50
内测匹配度
通过智谱官方通道验证更高质量中文工作流。
适用场景
中文内容工作流、结构化分析和业务助手。

Kimi K2.6

kimi-k2.6

active
供应商
Moonshot
输入 / 1M
$0.95
输出 / 1M
$4.00
内测匹配度
通过 Moonshot 验证长上下文和文档类内测场景。
适用场景
文档阅读、长上下文问答和知识工作流。

下一步

扩大流量前先跑一次请求。

用一次小型非流式 chat completions 调用验证权限、响应结构、token 计量和余额。

  1. 打开控制台并创建服务端 API Key。
  2. 选择适合第一批工作负载的模型 ID。
  3. 向 /chat/completions 发送小请求。
  4. 在用量日志中检查请求状态、token 数量和费用。

控制台

https://console.anlinkai.com

快速开始

/zh-CN/quickstart

内测

/zh-CN/beta