# [求助] 用 curl 抓取一个网站,网站有很多分页,但不论怎么指 page=[2-100],抓取的都只是 page=1 的内容...

2018-08-10 09:01:11 +08:00
 Ger2EX

本人用 curl 抓取http://www.gmkfreefonts.com/index.php?letter=a&page=3&res=12内容; 但返回的始终是http://www.gmkfreefonts.com/index.php?letter=a&page=1&res=12的内容;

浏览器 http://www.gmkfreefonts.com/index.php?letter=a&page=3&res=12 可以直接跳转到 page3

curl -s http://www.gmkfreefonts.com/index.php?letter=a&page=3&res=12

小白整了一晚也没整明白,请高手指点 1-2,谢谢!

5585 次点击
所在节点   Bash
5 条回复
zhu
2018-08-10 09:20:16 +08:00
& 在命令行是特殊字符。

你需要修改为:
curl -s "http://www.gmkfreefonts.com/index.php?letter=a&page=3&res=12"
beaconfire
2018-08-10 09:21:09 +08:00
引号了解一下?
iwishing
2018-08-10 09:27:49 +08:00
内容都在 index.php 里面了呀
比方 aajaxsurrealfreak 字体,在第一页的第一个
你在第三页的源文件里也能搜到
presoul
2018-08-10 09:30:38 +08:00
可以直接 f12 里面 copy as bash url
Ger2EX
2018-08-10 10:56:15 +08:00
谢谢各位! OK

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/478468

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX