feedly有https就是不给你用,这是什么心态,还自动跳到其他订阅,然后就被墙了

2013-07-07 15:35:04 +08:00
 ejin
feedly的https何意?www域名有https,cloud.feedly.com又没有,有什么用嘛,防止账号被劫持?劫持你cloud.feedly.com的cookie照样可以劫持你账号

还有,如果你点击标记所有为已读,好吧,你无法想象,你在吃饭的时候看着it新闻,点击一下之后,自动跳到了1024的订阅里,看到那满屏的裸女,保证你立刻就没有了食欲。

可能是我人品不好吧,这样的情况没有遇到,但是总是给我自动跳转到被墙的网站订阅上,比如youtube。于是打不开了。

也可能是我的怪癖吧,默认还是希望显示已读的内容,但是它不是,貌似还没地方设置,要一个个订阅选择显示已读的条目。对于有100+订阅的人来说,这太蛋疼了。

好吧这只是个吐槽贴
7974 次点击
所在节点    问与答
28 条回复
horsley
2013-07-07 15:54:04 +08:00
小小的推荐一下Slickreader
有HTTPS,可以直接看已读内容,体验不错的说
aku
2013-07-07 15:56:32 +08:00
用inoreader吧
feedly
newsblur
the oldreader
digg
AOL reader
都只能看最近的
怒了,这算什么RSS?
现在免费的一个一个试过去,就inorerader能看到以前的(6年前),也支持https,可以关掉社交,可以导进google-reader-take-out数据


好吧,这是愤怒的吐槽

btw 收费的feedbin怎么样?有人有过吗?
aku
2013-07-07 16:01:57 +08:00
@horsley silkreader的rss条目能上溯到多久以前?
另外,我看到newsbur的页面跟它好像啊。
wozzl
2013-07-07 16:14:18 +08:00
theoldreader其实不错,不过它竟然连PC版和安卓版恩不能同步…无语
wozzl
2013-07-07 16:15:03 +08:00
其他几个都是在PC上各种慢,真心没有完美的
ejin
2013-07-07 16:18:45 +08:00
@horsley 导入中。

@aku 那不是他们的错哎,毕竟人家刚开始,也只能获取现在的啊,只能获取存下来,人家有几年的肯定是以前存下来的,或者是从别的阅读器导来的。这不是阅读器的错啊 - -!!!
aku
2013-07-07 16:27:30 +08:00
@ejin https://yoleoreader.com/
这个只是一个女生搞得也能上溯到几年前啊。
不过据hacker news, 好象是个女博士
wjchen
2013-07-07 16:53:46 +08:00
@aku 除非是那种做了很多年的,不然应该是导入了google reader的数据吧。
而且这样极消耗硬盘空间。
ejin
2013-07-07 16:56:33 +08:00
@aku rss本身只会提供10条20条50条,你只能获取到这么多,人家也只提供这么多,你怎么获取几年前的?一个个网站采集去?不懂不要乱说好么。

那些有几年前的,要么是几年前自己就存在,慢慢积累起来的,要么通过api从别的阅读器,比如google reader,但是这样获取的话,数据量会很大,api必然也有限制,慢了你又嫌弃,总之就是那回事了。
ejin
2013-07-07 17:12:05 +08:00
@wjchen 没错,极其消耗硬盘不说,还没几个人会去看,谁没事去翻几年前的老文章呢
aku
2013-07-07 17:53:30 +08:00
@ejin rss的xml的确只是记录了几十条item
google reader 出现在2005年。
2005之前的条目是怎么抓取的呢?
google reader 之类的不可能完全依赖rss,肯定还用了爬虫。
google reader本来就不是一个真正纯的rss reader,更像是一个archiver
作为google reader 的代替,feedly就购买了大量服务器,如果只是纯粹的抓取rss,根本不必如此。


想必用google reader的人中,把它当作archiver的不只我一个吧。至于数据量大的问题,不是我们用户该操心的。数据量再大,也不会比搜索引擎的cache大。


另外,这些代替品中,有的甚至连2月份的都显示不出来。对一个google reader的代替品,这样也满足的话,要求未免也太低了。

若只是rss阅读器,我肯定不会提这样的要求。

另外,动辄说别人不懂,容易破坏讨论的氛围,还是不要这样吧。。。
wjchen
2013-07-07 18:27:21 +08:00
@aku 可以肯定https://yoleoreader.com/不是对网页爬虫,而是用了google reader的数据。
我找了个只有我一人订阅的rss,去这个网站试了试,并没有看到以前的数据。
而且哪来这么多文章需要archive,真正有价值的加下星标,其他rss应该能导入加星标的条目。
Do
2013-07-07 18:28:33 +08:00
cloud.feedly.com也有https,但是回强制跳转回http,满屏裸女是因为你订阅了1024吧,feedly回自己跳转回已读条目。
现在看来digg和feedly根本不靠谱!
ejin
2013-07-07 18:49:12 +08:00
@aku google说的很清楚了,因为付出了太多的资源,而得到的用户太少,这还不明白为什么么

一个用户,比如我,有个几G的内容很正常,但是我一般只看一次就丢在那不会再看了,但是它又必须保存下来,更有甚者比如你,还要更多!连阅读器运营之前的数据你都要!

还有其他情况,有的人有10个订阅,有的可能有100个,google也说了,有很大量的订阅,是只有一个用户,我的订阅里有一些条目,就是只有我一个用户的,不管我是否登录,几个月不来,google却要每天帮我去抓取,一天还要去很多次,这要多少资源?抓取了还要帮我存好,源站有多大数据他就要为我存多少数据,甚至我根本不会去使用,10年前订阅的数据,我会去看?但是他却要时刻准备着!

而我却不用为此花一分钱,而google却付出了太多的资源,包括宽带,计算机运算、存储都是要钱的。

现在google终于受不了了,走了,很多人还说google作恶了等等。

现在出现了很多替代品,但是又怎样,替代品就要有google有的全部数据?拥有google的强大的功能,宽带?存储?运算?全是钱啊,连拥有这么多服务器的google都受不了了,谁受得了?你受得了?那为什么你自己不去搞一个,而在到处找呢?

凡事应该替别人想想,不要成天被媒体给玩了,媒体为什么爱吹,因为只有炒作,才会有人看,才会有人喷,广告才卖得出去。
aku
2013-07-07 18:59:32 +08:00
@wjchen 哦,yoleoreader.com,我用一个只有我订阅的rss试了一下,只显示最近的。然后我用了一个订阅多一些的rss,xml只有最新的十几条,yoleoreader.com能显示到2006年。这么说,应该是部分用了爬虫。有可能使用了google reader的数据,但是不可能全部爬下来,我个人的google reader的数据(不是google-take-out)爬下来就有1G多。应该是有的只是读取rss的xml里有的,有的还用爬虫抓取额外的。

archive的精妙在于,在你需要的时候,能够拿到文章。加星只是标记。但是有的文章已经消失了,甚至网站都没了,而archive却还能让你拿到文章。

真正需要archive的文章肯定不多。这么多年,加星条目整理后我还有几千条。
我不知道其中多少加星条目,现在还能在网上找到。如果是在google reader里,我不必担心它们会消失。但是转移到其他阅读器,有多少还会有效,我不乐观。也许我能看到的,只是一张加星列表。

现在,我如果想把文章加星,我还会把它share 到pocket。这样会有内容的备份。真正重要的,会存为pdf,加入个人知识备份。

真正重要的东西丢失了,即使数量不多,心里多少还是会纠结的。
wjchen
2013-07-07 19:07:35 +08:00
@aku google takeout导出的压缩包里,里面的starred.json既有url,也有内容。
难道各种rss阅读器不能导入?那做得太差了。。。
aku
2013-07-07 19:14:58 +08:00
@ejin 对google reader所做的,我很感激。大量消耗服务器资源才能做到,而这正是google reader难以代替的地方。但是这恰恰是google的优势所在,google 搜索 的爬虫其实能完成这一切。若非搜索引擎提供商,做rss阅读的话,要么只用rss抓取不足;要么投入大量资源抓取,最后可能亏损倒闭。

其实google给出的理由,我还是觉得太牵强。即使关闭google reader,google search engine对网页的抓取索引和cache依旧不会停止。而google reader所做的与此并无什么区别。两者的功能很多地方是重叠的。

不过最后,还是感谢google这些年来的服务。毕竟,这么多家搜索引擎提供商中,只有google提供了reader
aku
2013-07-07 19:19:22 +08:00
@wjchen 有的只能上传subscriptions.xml
inoreader可以导入整个take-out,应该能看到加星条目内容。
jeeson
2013-07-07 19:45:23 +08:00
@wjchen takeout 数据的导入要考虑一个问题 -- 篡改

同一篇文章很可能有多个用户收藏,如果导入,是每个用户都导入一条记录还是大家用一个数据?

feed, 文章项目 这些资源通常是公共的,如果某篇文章的第一个用户把经过修改的数据导入,就会导致后来的用户阅读到的是被篡改的数据。
chainkhoo
2013-07-08 03:58:21 +08:00
feedbin还不错 在国内环境下稳定性比feedly好得多 而且默认是ssl
不过很多人推荐的都是fever 据说已经是rss的巅峰了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/75049

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX