帮朋友找个有爬虫,数据处理经验的人,远程兼职就可以。

2023-03-13 09:59:04 +08:00
 ShadowFiendYan

朋友公司业务上遇到瓶颈,原有的数据爬取不是很精准,爬到数据很多重复内容。 想找个有这方面经验的人帮忙解决问题。

有兴趣的老哥可以加绿色软件:TXNwb3dlcndhbmc=

2998 次点击
所在节点    酷工作
27 条回复
lookStupiToForce
2023-03-13 11:33:08 +08:00
具体刑不刑,推荐胆大的都可以以身试法逝逝

github[.]com/HiddenStrawberry/Crawler_Illegal_Cases_In_China
www[.]guantao[.]com/sv_view[.]aspx?TypeId=218&Id=1655&Fid=t8:218:8
westoy
2023-03-13 11:33:14 +08:00
@herozzm

新闻平台吃资质, 还容易出事, 自古以来, 在那个没有备案, 论坛随便开的年代, 做垃圾站的都不做新闻采集站的

今日 X 条敢做这个背景就已经很硬了
luckbbs
2023-03-13 16:04:15 +08:00
重复数据的是被故意掺沙子了。可刑
ShadowFiendYan
2023-03-13 16:05:31 +08:00
@luckbbs 那到不是,是因为这条信息在多个网站上都有。
wzw
2023-03-13 19:51:50 +08:00
那些垃圾站,采集的,会有问题?目前好多吧! 另外,采集英文 sf/amazon 太多了吧
christin
2023-03-13 20:26:20 +08:00
@sadfQED2 真正的商战果然朴实无华
mashihua
2023-03-14 16:37:04 +08:00
是 URL 没有去重吧

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/923498

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX