求推荐目前靠谱的稳定的 AI 聚合平台

102 天前
 happyn
之前付费用过 GPT4 ,后来又用了 Claude3 ,感觉目前 Claude3 写代码要比 GPT4 好用了;

但是有时候 GPT4 写 Python 感觉更靠谱一点儿;

目前最大的问题就是 Claude 封号,GPT4 网络不时抽风,我也不想开多个订阅了;

请问大家直到目前比较稳定的,能聚合各个平台 AI 的工具吗?

我试过字节海外的 coze ,还行,不过感觉有点儿复杂,前两天我试了刚刚运营的 lobechat ,也不错; POE 我试过,没有开付费账号,它麻烦的地方就是网络动不动抽风;

大家有用这种聚合 AI 平台的吗?用下来哪个好?还有类似的选择吗?
2291 次点击
所在节点    OpenAI
22 条回复
jhytxy
102 天前
claude 封号是 ip 问题
那种万人骑的 ip 别用

你搜一下 fuclaude ,搭建好了能反一下前端侦测
happyn
102 天前
@jhytxy 不太想折腾了;我就想找一个能聚合主流 AI 的平台,就长期订阅这个平台就行了;

目前就在比较 POE ,COZE ,lobechat ,想知道哪个更靠谱,适合长期用;或者有更好的推荐;
locoz
102 天前
POE ,已经续第二次年费会员了,稳得很
LuckyLauncher
102 天前
poe ,不过现在也开始封 ip 了
proxyai
102 天前
proxyxai.com

wx: proxyxai 有包月 vip 服务, 不限制模型
iyaozhen
102 天前
COZE 压根不是干这个的吧 虽然可以,但其实没 poe 等好用(就套壳这个场景)
poplar50
102 天前
poe 年费用户路过,总体来说 poe 只要挂梯子访问,网络抽风的情况会很少,我一般一个月也难遇到两次。

但最近在考虑 poe 到期之后转 lobechat ,同样费用情况下,lobechat 给的额度会是 poe 的 15 倍,也有更多级的套餐供选择。
happyn
102 天前
@poplar50 我比较了一下 poe 和 lobeChat ,都是最基本套餐;那个积分每个平台计算 Token 数目不一样,就用 GPT4 Turbo 的条数比较客观;

poe 年付是$16.67/月,有 3000 条 GPT4 Turbo ; lobeChat 是 $9.9/月,1000 条 GPT4 Turbo ;

按照消息条数计算的话,应该是 lobeChat 贵;
taotaodaddy
101 天前
@happyn 还得考虑用得完用不完

订阅过 1 年 poe
我算是重度用户, poe 订阅会员每个月 100 万订阅点, 由于很少用长上下文模型,所以基本上每个月只能用到 10-20 万
剩下 80 万计算点就算是浪费了

这么算的话,显然 lobeChat 更适合我

目前没有续订了, 是因为 gpt4o 和 claude3.5,官网都有免费额度,GPC 也有 3 个月的 300 美元额度免费 API,3 个月以后再说咯

我的建议是,你可以先按月订阅 Poe 和 lobechat 分别试试, 没必要年度订阅, 否则一点上船可就不容易下了
taotaodaddy
101 天前
打错字,是 GCP 不是 GPC 🤣
popdo
101 天前
目前市面上确实有不少聚合多个 AI 平台的工具,普遍都是有包月的形式,但总体来说没有通过 api 接入 按量付费来的方便和自由。通过 api 自己可以在任何一个开源的套壳应用上使用模型。推荐一个非常好用的工具 https://u.tools/plugins/detail/ChatGPT.%E5%A5%BD%E5%8F%8B/
Feedmo
101 天前
@locoz 我用香港 ip ,年付得 299 美元了,这是涨价了吗
Feedmo
101 天前
@happyn 为啥我年付显示$25/月😂
YongXMan
101 天前
可以看之前发的帖子 https://v2ex.com/t/1059611
happyn
101 天前
@Feedmo 我不知道啊,我的 poe 显示年付$199.99
taotaodaddy
101 天前
还发现一个可供比较的点:

POE 每个月有 1000 条 Claude-3.5-Sonnet-200k ,注意,是 200K 的
lobeChat 每个月也有 1000 条 Claude-3.5-Sonnet-200k
如果我用 Claude-3.5-Sonnet-200k,那么价格只有一半的 lobeChat 就更划算
但是,这些第三方的批发商,是否给足了 context size,就不好说了
taotaodaddy
101 天前
又发现一个比较的点:
OP 说的 poe 每月 3000 条 GPT4 Turbo, 是短 context 的,128K 的 GPT4 Turbo,实际上每个月只有 400 条
而 lobeChat 的模型 GPT-4 Turbo 右侧标的是 128K
如果 lobeChat 没有虚标, 那就得用 400 比 1000

总之这些三方,是有小猫腻在里面得
happyn
98 天前
@taotaodaddy 所以订阅这个东西可能以后也跟买数码产品一样,需要各种评测大咖出场了;
kangfenmao
96 天前
我弄的这个可以吗,目前已经接入了 13 家服务商了: https://cherry-ai.com/
ayt407123
87 天前
可以试试这家一站式聚合,随用随付,同步官网更新最新模型,支持任意文件上传分析。chat.tokenspark.net

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1059678

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX