[急招] 找程序员帮忙做一个小爬虫软件,自动收集几个网站上的信息,报酬好商量!

2013-06-19 11:42:14 +08:00
 albusyu
第一次在V2上发帖..我在帮一个做科技媒体的朋友招人做一个软件,主要的作用是自动爬一些行业内的网站(包括Alexa、几个科技媒体)的信息,然后整合出报告来(比如:新产品上线、Alexa排名上升快、刚获得投资)。他需要这些信息作为平时工作的一个信息来源。详细的需求可以我们详聊来确定,完成方法与展现形式等也最好是我们详聊,非专业人士所以不太会写需求文档.. 最好人是在上海啦,这样我们可以见面聊。

希望能够尽快有人能够帮忙,报酬好商量,确定好需求之后我们来确定报价就行。希望能够在几周内开发完成。有兴趣的人请联系:albus.yu#gmail.com,邮件里最好能注明一下自己的资历、曾做过的项目等。多谢!!也麻烦大家转给一下身边的有空来赚点零花钱的朋友,谢谢!
2405 次点击
所在节点    外包
13 条回复
ahxxm
2013-06-19 12:14:44 +08:00
才几个科技媒体,rss订阅加个分组就好了啊。信息来源的话,不如(所有媒体的)整站一起抓,存到本地随时搜索关键词。。
revir
2013-06-29 17:04:55 +08:00
您好, 我目前正在做一个爬虫, 改一改网站模板即可达到您的要求, 详细信息我发邮件给您!
luxeco
2013-07-03 19:40:42 +08:00
@revir 麻烦给我也发一个吧,也有这方面的需求。 yy1992@hotmail.com 谢谢!
revir
2013-07-04 21:35:25 +08:00
@luxeco 好的, 已发, 注意查收。
yearsaaaa
2013-07-05 09:26:06 +08:00
@revir 可以发一份给我吗,我没有需求只是想参观一下
revir
2013-07-06 10:03:15 +08:00
@yearsaaaa
呃。。。
colorday
2013-07-06 10:07:42 +08:00
@revir 麻烦给我也发一份 有需求 谢谢 colorday # hotmail.com
xmbaozi
2013-07-06 10:10:57 +08:00
@revir 同求,xmbaozi# qq.com 谢谢
cosmo
2013-07-06 13:49:44 +08:00
@revir
烦请发一份,谢谢!
amouage # qq.com
yearsaaaa
2013-07-06 14:48:37 +08:00
@revir 忘了发邮箱了,MChen402@gmail.com
1005gel
2013-07-06 21:12:47 +08:00
同想参观 麻烦了 1005gel#gmail.com @revir
sky21
2013-07-09 13:59:26 +08:00
好像有很多现成爬虫软件吧 例如ET http://www.zzcity.net
revir
2013-07-10 22:52:22 +08:00
@luxeco
@yearsaaaa
@1005gel
@cosmo
@xmbaozi
@colorday
楼上的各位, 我已给你们发了邮件, 但是我不能将软件发给你们哦, 这是我公司的产品, 我还想在这里多混几年呢! LOL

有需要的话可以联系我, 其实现在有很多开源的爬虫, 比如, 一些简单的需求可以用scrapy定制, scrapy是一个开源的python爬虫, 使用起来还是很简单的。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/72870

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX