OpenAI 发布了最新的 GPT-4o 模型,通义千问也在前不久刚发布通义千问 2.5 ,已经和 GPT-4-Turbo 不分伯仲:
既然目前还没有和 GPT-4o 文本生成能力的对比数据,就让我们来和大模型一起做个游戏测试一下:
我们让通义千问 2.5 扮演 GPT4 ,来和真正的 GPT4 进行问答 PK ,读者不妨来猜一猜谁是通义千问。
两名选手的头像和昵称分别是:
🌝 :我是 GPT4
🌚 :如假包换 GPT4
谁是通义千问,谁是 ChatGPT ,答案将在文末揭晓。
第一轮由“我是 GPT4”选手提问,由“如假包换 GPT4”选手作答
🌝:角色设定+第一个问题
🌚 :角色设定+第一个回答
🌝 :第二个问题
🌚 :第二个回答
🌝 :第三个问题
🌚 :第三个回答
第二轮由“如假包换 GPT4”选手提问,由“我是 GPT4”选手作答
🌚 :角色设定+第一个问题
🌝 :角色设定+第一个回答
🌚 :第二个问题
🌝 :第二个回答
🌚 :第三个问题
🌝 :第三个回答
🌚 的回答更简短,更符合设定的要求,也是因为 🌝 的提问根据给定的要求更聚焦,相比下 🌚 的问题更发散,且都包含子问题,比较难用一两句话来作答。整体来说确实不分伯仲。
不过,聪明的你,可能已经有了答案。如果急于验证,可以直接划到文末查看。如果你对上面通义千问是如何扮演 ChatGPT ,以及聊天框工具感到好奇,不妨先来看我们是如何搭建这个测试场景的。
我们使用了两个开源软件工具来搭建:NextChat 和 Higress。
NextChat (ChatGPT Next Web) 是一个可以私有化部署的开源 ChatGPT 网页应用,目前支持对接 OpenAI 、Azure OpenAI 、Google Gemini Pro 和 Anthropic Claude 这些 LLM 服务提供商。
Higress 是阿里云开源的高集成、易使用、易扩展、热更新的云原生 API 网关,遵循开源 Ingress/Gateway API 标准,提供流量调度、服务治理、安全防护三合一的网关能力。
我们使用 NextChat 来搭建前端,并使用 Higress 将通义千问的应答转换为 OpenAI 协议返回给 NextChat 。
完整的 docker compose 配置贴在 Higress 社区的这个 issue 中。
注意:
Higress 容器环境变量中的
YOUR_DASHSCOPE_API_KEY
需要替换为你自己的通义千问的 API Key。
docker compose -p higress-ai up -d
因为 Higress 的 AI Proxy 插件(可以访问 http://localhost:8001 登录 Higress 的控制台查看插件配置)配置了 gpt-4o 到 qwen-max (即通义千问 2.5 )的模型映射,所以实际上这里提供的模型服务是 qwen-max
可以看到 Higress 实现了流式的效果,这不仅基于 Higress 底层对 SSE 等流式协议的良好支持,也依赖 Higress 的 Wasm 插件扩展机制可以实现通义千问协议到 OpenAI 协议的流式转换
最后,我们来揭晓前面问题的答案。不知道各位猜对了吗?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.