V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  LemonLeon  ›  全部回复第 1 页 / 共 3 页
回复总数  46
1  2  3  
@hugi 做不好,你分析得在理。OpenKey 在圈子里的竞争力不强,远远比不上 openrouter.ai 这些老大哥。

也正因为如此,我们可以将有限的精力都放在已有的客户身上。OK 网页右下角有个在线客服对话窗口,后台一共有 3 个客服兼职处理,平均的响应时间在 30 秒内,最长不超过 3 小时。这是我们能提供的。

我们团队有开发/运营过一款 API 水龙头开源项目,可以给 AI 领域的开发者们提供一个用于测试 AI 产品的令牌。公益项目,后台统计的一共发放了 2 万+美金的 OK 额度。这是我们提供的。

最近我们上线了一款对话网站,对标 Poe 。目前也是免费开放给大家使用,3.5 模型 40 次 / 3 小时。当前在线:23 人 累计运行:41 天,且没有任何付费入口。这个也是我们提供的。

OK 一直在进步,除了这次条款更新。
@Puteulanus 一阵见血的评价。
@NoOneNoBody 我们有提供退款通道,大家可能没有注意到公告中的内容。如果接受不了新的服务条款,就无法继续提供服务,我们会按实际折扣(原价)退余额。
首先,题主 @nb5p 的这句话有误:

“意思是,在 1 月 12 日前充值的余额都会直接过期。”

关于新的条款。我们在邮件中写道 “之前已充值额度的用户,其有效期将于 4 月 12 日起开始计算,顺延 3 个月”,也就是所有 4 月 12 日前充值的额度将从 4 月 12 日开始计算有效期。

要注意,到目前为止我们并没有清理过任何一位用户的 OpenKey 有效额度。昨天,还有一位 2023 年 9 月 13 号的订单,因为接受不了新的条款,我们给他处理的退款。

关于退款。我们提供的有退款通道,所有 4 月 12 日之前的充值,如果无法接受 3 个月有效期的限制,都可以联系人工客服处理退款。提供用户名+订单信息+付款记录,通常退款会在 3 小时内处理完毕(按原价)。

关于这项条款更新的原因,大致分为两点:

1 )成本的增加。主要集中在风险成本,OK 目前供应的 ChatGPT 系列模型,依旧是采用的 OpenAI 原生接口(企业/组织号),而官方风控在不断加强,我们的运营压力比较大(不得已)。

2 )目标用户改变。早期 OK 的目标用户是 C 端消费者,目前正有计划地转向企业/团队客户,对于用量消耗较快的用户群体。对于普通用户,我们更建议按需购买,不要囤积。

关于跑路的说法。
如果有这样担心的是我们 OK 用户,那么可以随时联系我们处理退款,我们会按原价(针对剩余用量)妥善处理。
如果还不是 OK 的注册用户,我们会欢迎你们的批评建议,但不会喜欢任何不负责任/带节奏的评价。

关于 OK 的计费定价,有很多人批评。这里介绍一种简单的理解方式:

OK 的初始定价为¥ 1 元 购买 $1 美金 OK 额度,但实际会有折扣,从原价到 5 折不等(大客户有单独充值渠道);
OK 的模型消耗倍率,3.5 系列为 10 倍,4.0 系列为 16 倍。
用户 5 折条件下购买的额度,使用 3.5 模型,相当于 5 元 1 刀;使用 4.0 模型,相当于 8 元 1 刀。

所以,不存在说 OK 比官方还贵好几倍的说法。

以上。
你好,才看到帖子。抱歉!

我是 OK 团队的成员之一,主要负责媒体运营相关+客服,大家有什么问题也可以联系我。 邮箱: [email protected][email protected] ,或者网页右下角客服窗口(推荐)

接下来,我将针对这篇帖子以及评论区的部分回复做解释说明。因为其中的一些认识是错误的,或者不够准确的。
26 天前
回复了 xuxusheng 创建的主题 OpenAI openai 不用注册就能使用是真的吗?
官方把 api 的路子堵死,不停封号

倒是给逆向大开门啊,plus 取消 4.0 频率限制,3.5 免登录
37 天前
回复了 gaolegao 创建的主题 OpenAI openai 账号充了 200 刀还没用就被封号了
可以关注 poe.monster ,我们在做的大模型聚合平台,已经支持 claude 最新三个模型
poe.monster 已经支持 Claude 模型,免费容量如下:

OpenAI ChatGPT 3.5 模型 40 次 / 3 小时
OpenAI ChatGPT 4.0 模型 2 次 / 24 小时
Anthropic Claude 3 Haiku 模型 40 次 / 3 小时
Anthropic Claude 3 Sonnet 模型 2 次 / 24 小时
Anthropic Claude 3 Opus 模型 2 次 / 24 小时
@yinmin 后期会更换品牌名,现在擦边:)
@locoz 很诚恳的反馈,感谢!先把对话功能做好,后面小步走,不行就换方向
@gdfsjunjun 可以来 Poe.Monster ,3.5 模型也是免费的
@locoz Poe 做的很好,单独拿出任何一个功能,在用户体验上我们很难比得过。

所以我们的重心会放在两个点上,
1 )普通用户,通过 prompt to earn 概念,让所有用户创建的机器人可以快速便捷地为作者带来收益,平台推广上形成裂变;
2 )团队用户,提供多种套餐,可定制的服务。

关于使用限制,每个用户,每个模型,每天都有一定的免费使用容量。这种方式对于用户是最简单理解的,类似 openai 官方 plus 账号 40 次/3 小时 4.0 模型对话,我们是 3.5 模型这个速率,4.0 每天 2 次。后续订阅功能完成后,用户可以通过订阅获取更多 4.0 模型的容量。
@DonkeyBenjamin OpenAI 提供的方案很全面了。后面我们计划支持其他厂商的 AI 模型,主要对标的还是 Poe 。
120 天前
回复了 hytirrb 创建的主题 程序员 信息同步
同问,有没有好用的手机远程控制应用
@kuanat 感谢回复,我调整了测试方法。以下是最新的情况:

1.1 )部署环境:Centos7 Mysql8 nodev16.16.0 go1.20.2
1.2 )测试方法:
Windows Python3.8.10 locust 1000 用户并发,测试结果稳定在 300qps 附近(单个 locust 终端)

https://i.imgur.com/80mq5LU.png
https://i.imgur.com/1CRZujq.png

2 ) 2c4g 4c8g 6c16g ,测出来的并发量都是 300 附近。内存,磁盘读写,带宽压力并不大

3 )我推测的原因有两个,要么在 cpu ,要么在数据库。通过提高数据库的最大连接数,并发线程有一点提高。

4 )当用户端发起超多请求时候,数据库提前打开连接等待,然后系统就超出 mysql 最大连接数,并发降低下来。这是我的推测。

如果是这样,那一定有一种方案,是把这些任务都放在内存中处理完了,最后再批量插入数据库中。

5 )我看到有一些中转系统就是基于内存处理的,欢迎大家指正和指路
这里统一感谢大家的回复!还没有找到优化方案,目前正在尝试增加机器性能。

如果你有时间远程协助我,可以添加我的联系方式 v:bitdark
@monsterxx03 你好,方便远程帮我排查一下吗
@RockChinQ 不在上游,但是分布式后面是要考虑的
@tonywangcn 空的,麻烦重新发一下
1  2  3  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   5168 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms · UTC 09:41 · PVG 17:41 · LAX 02:41 · JFK 05:41
Developed with CodeLauncher
♥ Do have faith in what you're doing.