@
aozhou #6
如果看到“数据分析”,你只想到“分析”、计算这些,那确实没什么关系
但数据分析首先要有数据,不能凭空创造,这个获取过程称为采样,采样是有专门《采样学》的,就是一大堆数据,哪些是包含有效信息的,哪些是只有无效信息的,要做筛选,说俗一点就是数据海选,试想一下,扔一堆 html 给分析人员会不会被骂死?当然是前置工作,没数据也无法分析
采样有多种途径,目前来说,网络采样是成本较低的一种
你要扩大思维,数据海选不一定就是“爬”外网,例如有个目录里面上亿个富文本,如何通过海选提取“有效数据”,如去掉广告,去掉无关的一些内容,保留主要的文章、对话、图片、表格……这些都是爬虫“爬后”的工作,总不会爬虫爬取结束后,一个字节都不动照搬显示吧?
再用上述例子,一亿个 html ,但分析部门要求只用五千万,至于为什么就不用纠结了,可能因为硬件所限,可能因为时间所限等等,一亿筛走一半,要说出个所以然,为什么那去掉的五千万是“没用的”,根据什么理论筛掉,随机么?这就是采样学要做的工作。分析部门中需要有人做这种粗活,分析师是不管这些的,如果分析过程发现样本“不合格”,是需要打回头重新采样的