关于 scrapy 用代理 IP 的问题

2018-03-22 09:36:17 +08:00
 baday
同样的代理 IP,我用 requests 时可以正常访问,用 scrapy 写中间件结果却是 10060 和 10061
requests 代码
def get_urls(url=START_URL):
proxies = {"http": "http://{}".format("1.28.91.229:61202")}
print(proxies)
r = requests.get(url, proxies=proxies, headers=DEFAULT_REQUEST_HEADERS)
etree = lxml.html.fromstring(r.text)
# 获取界面关注人的路径
urls = etree.xpath("//dl[@class='obu']/dd/a/@href")
print(urls)

中间件这样写的
class ProxyMiddleware(object):
'''设置代理 IP'''

def process_request(self, request, spider):
pro_adr = random.choice(PROXIES)
print("USE PROXY -> " + pro_adr)
request.meta["proxy"] = "http://" + pro_adr.strip()
3282 次点击
所在节点    Python
1 条回复
capljf
2018-03-22 10:12:41 +08:00
代理失效了吧,换个代理试试

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/440302

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX