爬虫-化被动为主动

一、前言

创新互联坚持“要么做到,要么别承诺”的工作理念,服务领域包括:网站建设、网站设计、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的霍山网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!

现在网上有很多被动式扫描器,配置一个代理给浏览器设置,然后人去点击浏览器上的网页,在这种模式下抓到的URL数量没有用爬虫的效果好。

我个人是比较懒的,先也写了个被动的扫描器,不想改以前写的东西,而且被动也有被动的优点,所以就想可不可以让爬虫也设置个代理。就有了下面的东西,很方便。

二、实操

如何在不改变原被动扫描器的情况下让被动变成主动。

主结构:

以phantomjs为核心,用JS模仿人对页面的操作,代理软件抓链接。以下流程是通用pychon脚本实现的。

1打开浏览器并设置代理->2输入网址->3填充表单->4点击按钮->5点击超链拉->6关闭标签->7关闭浏览器,循环2-6。

1. 打开浏览器并设置代理

 
 
 
 
  1. proxy_config = [ 
  2.     '--proxy=127.0.0.1:8080', 
  3.     '--proxy-type=http', 
  4.     '--ignore-ssl-errors=yes', 
  5. phantomjs_path='/home/ubuntu_235/proxyscan/phantomjs/phantomjs/bin/phantomjs' 
  6. driver = webdriver.PhantomJS(executable_path=phantomjs_path,service_args=sys_config) 

2. 输入网址

 
 
 
 
  1. driver.get('http://demo.aisec.cn') 

3. 填充表单

 
 
 
 
  1. _input_text = """ 
  2.         var input_list=document.getElementsByTagName("input"); 
  3.         for (i_i=0;i_i
  4.         var input_type=input_list[i_i].attributes["type"].value 
  5.         if (input_type == "text" || input_type == "password"){ 
  6.         input_list[i_i].value="ascan@ascan.com"; 
  7.         continue; 
  8.         } 
  9.         if (input_type == "radio" || input_type == "checkbox"){ 
  10.         input_list[i_i].setAttribute('target','_blank'); 
  11.         input_list[i_i].checked="True"; 
  12.         } 
  13.         } 
  14. """ 

4. 点击按钮

 
 
 
 
  1. _but_click = """ 
  2.         var but_list=document.getElementsByTagName("input"); 
  3.         for (b_i=0;b_i
  4.                 var but_type=but_list[b_i].attributes["type"].value 
  5.         if (but_type == "button" || but_type == "submit"){ 
  6.         but_list[b_i].setAttribute('target','_blank'); 
  7.         but_list[b_i].click(); 
  8.         } 
  9.         } 
  10.         """ 

5. 点击超链接

 
 
 
 
  1. _a_click = """ 
  2.        var a_list=document.getElementsByTagName("a"); 
  3.        for (a_i=0;a_i
  4.        a_list[a_i].setAttribute('target','_blank'); 
  5.        a_list[a_i].click(); 
  6.        } 
  7.        """ 

这里注意下,我在click前给标签加了一个target=”_blank”,在新的标签页打开链接

6. 关闭标签

 
 
 
 
  1. for h in driver.window_handles[1:]: 
  2. driver.switch_to_window(h) 
  3. driver.close() 

注意:应该先获取有标签页的handle在用switch_to_window

切换到该标签页,执行quit()操作。driver.window_handles[1:]保留的是第一个页面。

在完成所有操作后关闭浏览器

 
 
 
 
  1. driver.close() 

通过burpsuite抓到的请求包

最终实现的结果展示

一些注意点:

如何获取当前页面的所有标签的href?

 
 
 
 
  1. url_list=[] 
  2. a_list=self.driver.find_elements_by_xpath("//a[@href]") 
  3. for a in a_list: 
  4. url_list.append(a.get_attribute("href")) 
  5. print(url_list) 

如何获取当前标签的URL?

  
  
 
 
  1. driver.current_url 

有什么坑?

a.浏览器打页面要时间,但python不知道(不是真不知道)

b.会不明原因的卡死,没有报错

c.页面跳转

当前标题:爬虫-化被动为主动
当前地址:http://www.shufengxianlan.com/qtweb/news45/39395.html

网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联