新闻类网页正文通用抽取器

2019-09-09 09:54:00 +08:00
 itskingname

项目起源

开发这个项目,源自于我在知网发现了一篇关于自动化抽取新闻类网站正文的算法论文——《基于文本及符号密度的网页正文提取方法》

这篇论文中描述的算法看起来简洁清晰,并且符合逻辑。但由于论文中只讲了算法原理,并没有具体的语言实现,所以我使用 Python 根据论文实现了这个抽取器。并分别使用今日头条、网易新闻、游民星空、观察者网、凤凰网、腾讯新闻、ReadHub、新浪新闻做了测试,发现提取效果非常出色,几乎能够达到 100%的准确率。

项目现状

在论文中描述的正文提取基础上,我增加了标题、发布时间和文章作者的自动化探测与提取功能。

最后的输出效果如下图所示:

目前这个项目是一个非常非常早期的 Demo,发布出来是希望能够尽快得到大家的使用反馈,从而能够更好地有针对性地进行开发。

本项目取名为抽取器,而不是爬虫,是为了规避不必要的风险,因此,本项目的输入是 HTML,输出是一个字典。请自行使用恰当的方法获取目标网站的 HTML。

本项目现在不会,将来也不会提供主动请求网站 HTML 的功能。

如何使用

项目代码中的GeneralNewsCrawler.py提供了本项目的基本使用示例。

Elements标签页定位到<html>标签,并右键,选择Copy-Copy OuterHTML,如下图所示

from GeneralNewsCrawler import GeneralNewsExtractor

extractor = GeneralNewsExtractor()
html = '你的目标网页正文'
result = extractor.extract(html)
print(result)

对大多数新闻页面而言,以上的写法就能够解决问题了。

但某些新闻网页下面会有评论,评论里面可能存在长篇大论,它们会看起来比真正的新闻正文更像是正文,因此extractor.extract()方法还有一个默认参数noise_mode_list,用于在网页预处理时提前把评论区域整个移除。

noise_mode_list的值是一个列表,列表里面的每一个元素都是 XPath,对应了你需要提前移除的,可能会导致干扰的目标标签。

例如,观察者网下面的评论区域对应的 Xpath 为//div[@class="comment-list"]。所以在提取观察者网时,为了防止评论干扰,就可以加上这个参数:

result = extractor.extract(html, noise_node_list=['//div[@class="comment-list"]'])

test文件夹中的网页的提取结果,请查看result.txt

已知问题

  1. 目前本项目只适用于新闻页的信息提取。如果目标网站不是新闻页,或者是今日头条中的相册型文章,那么抽取结果可能不符合预期。
  2. 可能会有一些新闻页面出现抽取结果中的作者为空字符串的情况,这可能是由于文章本身没有作者,或者使用了已有正则表达式没有覆盖到的情况。

Todo

交流沟通

项目地址:https://github.com/kingname/GeneralNewsExtractor

本项目的交流微信群:

4701 次点击
所在节点    分享创造
30 条回复
itskingname
2019-09-09 17:12:47 +08:00
@Chappako 感谢~你可以现在测试一下,搭建环境并运行测试样例只需要 1 分钟。
murmur
2019-09-09 17:14:02 +08:00
@lsvih 这论文印象中 6 年前就用过。。。
lsvih
2019-09-09 17:53:54 +08:00
@murmur @ClericPy 因为思路简单效果好,所以印象深刻。看到本贴的论文第一反应就是它们方法很类似,所以想看看他们的对比,然后发现连引用都没引用。。

刚用楼主的代码测了下,效果差不多,连 bad case 都很类似
itskingname
2019-09-09 17:56:31 +08:00
@lsvih 求提供 bad case
exip
2019-09-09 20:03:22 +08:00
先收藏,晚点要用
itskingname
2019-09-09 21:33:09 +08:00
@exip 现在就可以用
xiaotuzi
2019-09-09 22:20:20 +08:00
看看 php simple html dom,这早就有了,你现在才开始发现???其实就是 xpath,PHP 有支持 xpath
itskingname
2019-09-10 08:31:54 +08:00
@xiaotuzi 不是
itskingname
2019-09-10 09:57:43 +08:00
收藏比评论多。
dicc
2019-09-11 08:55:11 +08:00
我的爬虫都是快照形式, css, js 全都抓下来了, 打开就是原样网页

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/599166

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX