Pyspider+Phantomjs 遇到一个站点的浏览器检查确实不会过

2016-10-07 21:15:42 +08:00
 ifishman

看了下他的检查代码,好像是定时提交一个隐藏的表单

目标站点

隐藏表单内容如下:

 <form id="challenge-form" action="/cdn-cgi/l/chk_jschl" method="get">
        <input type="hidden" name="jschl_vc" value="8638db33f4d888e137a518e882e7c8e3">
        <input type="hidden" name="pass" value="1475845385.911-E7QOUU3JrO">
        <input type="hidden" id="jschl-answer" name="jschl_answer">
 </form>

对应的检查代码如下:

<script type="text/javascript">
  //<![CDATA[
  (function(){
    var a = function() {
      try{
        return !!window.addEventListener}
      catch(e) {
        return !1}
    }
    ,
    b = function(b, c) {
    a() ? document.addEventListener("DOMContentLoaded", b, c) : document.attachEvent("onreadystatechange", b)};
    b(function(){
      var a = document.getElementById('yjs-content');
      a.style.display = 'block';
      setTimeout(function(){
        var s,t,o,p,b,r,e,a,k,i,n,g,f, tEGADKc={"UOLHSZfuv":+((!+[]+!![]+[])+(!+[]+!![]))};
        t = document.createElement('div');
        t.innerHTML="<a href='/'>x</a>";
        t = t.firstChild.href;
        r = t.match(/https?:\/\//)[0];
        t = t.substr(r.length);
        t = t.substr(0,t.length-1);
        a = document.getElementById('jschl-answer');
        f = document.getElementById('challenge-form');
        ;
        tEGADKc.UOLHSZfuv+=+((!+[]+!![]+!![]+!![]+!![]+[])+(+[]));
        tEGADKc.UOLHSZfuv+=+((!+[]+!![]+!![]+[])+(+!![]));
        tEGADKc.UOLHSZfuv+=+((!+[]+!![]+!![]+[])+(!+[]+!![]+!![]+!![]+!![]+!![]));
        tEGADKc.UOLHSZfuv*=+((!+[]+!![]+!![]+!![]+[])+(!+[]+!![]+!![]));
        tEGADKc.UOLHSZfuv-=!+[]+!![]+!![]+!![]+!![]+!![]+!![];
        tEGADKc.UOLHSZfuv*=+((!+[]+!![]+!![]+!![]+!![]+[])+(+[]));
        a.value = parseInt(tEGADKc.UOLHSZfuv, 10) + t.length;
        '; 121'
        f.submit();
      }
                 , 4000);
    }
      , false);
  }
  )();
  //]]>
</script>
5063 次点击
所在节点    问与答
12 条回复
icedx
2016-10-07 23:52:33 +08:00
Selenium
ifishman
2016-10-08 12:46:53 +08:00
@icedx 首先感谢回复,根据你的提示去了解了下 Selenium , selenium 是一个 web 的自动化测试工具,但是我需要怎么和 pyspider 进行整合?

不好意思,才入门 python ,才会基础语法那种入门
icedx
2016-10-08 12:53:31 +08:00
@ifishman
既然你说了 刚刚入门 那就不要用 PySpider
Selenium 有获取网页内容的能力 然后你要做的 就是把获取到的内容放到数据库里
1130335361
2016-10-09 10:13:33 +08:00
cc @binux
ifishman
2016-10-09 17:19:57 +08:00
@binux 这里这里,这个帖子要你的帮助
binux
2016-10-09 18:32:47 +08:00
1. 用浏览器过掉验证,拷贝 cookie ,带 cookie 抓(可能 cookie 包含 ip 信息)
2.

```
class Handler(BaseHandler):
crawl_config = {
}

@every(minutes=24 * 60)
def on_start(self):
self.crawl('http://ips.chacuo.net/', callback=self.chk_jschl , fetch_type='js', js_script=r'''
function() {
var script = document.querySelector('script').textContent;
console.log(script);
script = script.match(new RegExp("setTimeout\\(function\\(\\){([\\s\\S\n]+)f.submit", 'm'))[1] + 'a.value;';
console.log(script);
return eval(script);
}
''')

@catch_status_code_error
@config(age=10 * 24 * 60 * 60)
def chk_jschl (self, response):
print response.cookies
print response.js_script_result
self.crawl('http://ips.chacuo.net/cdn-cgi/l/chk_jschl', params={
'jschl_vc': response.doc('input[name=jschl_vc]').val(),
'pass': response.doc('input[name=pass]').val(),
'jschl-answer': response.js_script_result
}, callback=self.detail_page, cookies=response.cookies, headers={
'Referer': 'http://ips.chacuo.net/'
})
```
ifishman
2016-10-09 19:34:03 +08:00
@binux 感谢,能够说下解决的思路么,看起来是比 cfscrape 这个简单很多
binux
2016-10-09 19:42:00 +08:00
@ifishman 页面要运行 js , phantomjs 能运行 js ,那就让它运行呗。。
1130335361
2016-10-10 10:01:27 +08:00
@binux
@ifishman
思路明白了
按照那个脚本执行后还是会出现
HTTPError: HTTP 503: Service Temporarily Unavailable
ifishman
2016-10-10 12:41:01 +08:00
@1130335361 测试过了,已经可以正常抓取了
binux
2016-10-11 00:37:07 +08:00
@1130335361 这个验证是和 IP 绑定的,如果你在 demo.pyspider.org 测试,它有两个 IP ,要多试几次。
feigle
2017-07-26 22:16:47 +08:00

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/311014

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX