现在 LLM 到处都是,接口提供商也一堆。除了官方的 OpenAI 、Anthropic ,还有各种第三方转发平台:
	•	有的号称“便宜三分之一”
	•	有的主打“国内免代理访问”
	•	有的甚至说“模型加速、输出更稳”
但用过的人都知道——这些东西,有些是真快,有些是真慢。
❓我写这个工具干嘛的
做项目时需要调多个模型,就想知道到底哪个快哪个慢、输出稳不稳,于是写了这个:
📦 项目名: 
https://github.com/qjr87/llm-api-test🧪 演示站:
llmapitest.com功能很简单:
输入你的模型接口地址,它自动跑多轮请求,统计两个核心指标:
	•	平均首字响应时间( ms ):从发出请求到模型开始回话的时间
	•	平均输出速度( token/s ):整体吐字速度
跑完之后会输出图表对比,不靠感觉说快慢,直接上数字。
✅ 支持哪些接口?
目前内置支持:
	•	OpenAI 系列(官方 / 各种魔改 / reverse proxy )
	•	Claude 系列( Anthropic 官方)
	•	你可以自定义接任何兼容 OpenAI 格式的 API ,比如:
	•	DashScope
	•	Moonshot
	•	DeepSeek
	•	
openrouter.ai	•	各种国内第三方转发接口
🧠 适合谁用?
	•	想判断第三方 API 平台值不值得买
	•	想测试自己自建 LLM 服务在不同参数下的表现
	•	在做 prompt 工具 / UI 项目,需要选个最快的后端
	•	运维同学想量化 LLM 服务稳定性和波动性    
🧩 项目特点
	•	参数简单清晰,不用 SDK ,不装 Chrome 插件
	•	一次测多个模型,支持并发请求和多轮测试
	•	图表展示直观,支持导出数据分析
	•	可以当成 “中立测速平台”,不信广告看数据    
如果你也用过那些“吹得很猛结果超慢”的 AI 接口,
不如自己测一测,别再被文案忽悠了。
👉 项目地址: 
https://github.com/qjr87/llm-api-test👉 在线体验: 
https://llmapitest.com/