1
cngithub OP ,10万人,每人插入1000,就是1亿插入,5台服务器,每台2000万。一个小时完成。相当于每秒钟有5555个插入。
当然,这是最极端的情况。 实际上,1小时可以变为2小时,5台服务器可以变成10台。插入的数据量也可以变成100条甚至10条。 不知道有没有有实际经验的朋友给点意见? |
3
keakon 2011-10-17 18:39:29 +08:00
不知道你插那么多干啥,twitter上亿的用户,每秒发推的峰值也就1万左右。
mongodb的瓶颈应该在内存,当内存不够时,插入和读取性能会骤降;而你这样插入,内存肯定很快就用完了。 |
4
napoleonu 2011-10-17 23:04:52 +08:00
MySQL也能做到。
|
5
cngithub OP 唉,@keakon,世界上总有一些奇怪的需求、奇怪的应用情景。
目前在测试redis、mongodb、mysql三者的效率。 很可能倾向的方案是redis保存峰值数据,然后通过消息队列推送给mongodb或者mysql。 毕竟,这个应用的峰值只持续1-2个小时。 |