首页 > 编程知识 正文

awvs13扫描失败,awvs14破解版安装教程

时间:2023-05-04 19:19:14 阅读:208405 作者:1611

文章目录 AWVS介绍AWVS10.5扫描向导报告分析(他扫的是真的慢啊)各种功能Site Crawler (根据自己需要设置)HTTP EditorTarget Finder (目标查找)Subodmain Scanner(子域名扫描)Authentication Tester(认证测试)HTTP SnifferHTTP Fuzzer AWVS12面板过程

AWVS介绍

awvs全称Acunetix Web Vulnerability Scanner,主要用于扫描web应用程序上的安全问题,如SQL注入,XSS,目录遍历,文件包含,参数篡改,认证攻击,命令注入等,是一款网络漏洞扫描工具。这里的教程分为新旧两版,两种版本各有优势。
旧版:移动的工具包
新版:方便快捷

AWVS10.5 扫描向导

1.下面的图是其主界面

2.新建栏,从上倒下依次是新建扫描,新建爬行,新建服务扫描,新建报告(基本英文),file栏,从上到下依次是新建,导入以前的扫描,保存扫描记录(我是不是有点啰嗦)

3.配置,点开configuration是一些配置,应用配置,扫描配置等等(挺齐全的)scanning profiles中的是一些扫描模块脚本,用来判断漏洞

4.扫描向导(新建scan会弹出),第一个框是扫描的地址,第二个框大意是之前如果爬过的话可以把爬行记录导入

5.扫描配置,第一个框是漏洞类型,一般默认全部,第二个框是扫描设置,一般也是默认,当然,也可以自己定义,点击scan settings后面的那个按钮进行设置,第三个框是爬虫,可以自主选择扫描哪些文件,也可以扫描多个链接(用txt导入)


6.扫描设置(感兴趣的可以看看,不感兴趣的直接跳过看这一部分内容)

收集信息的话需要勾选Enable port scanning,让他进行端口扫描
GHDB,扫描一些敏感文件,全选就可以
爬虫设置,全是英文(对我这种英语不好的人来说,翻译必不可少),感兴趣的可以去查查都是啥意思
这是爬虫的文件过滤,*是全选的意思,exclude是直接跳过这些后缀的文件
目录和文件的过滤器,正则表达式形式。

代理的设置
深度扫描,开启就行
cookie的设置,如果有这个网站的一些cookie值,可以加进去
端口的扫描,可以设置哪些端口不扫描

7.自动识别一些信息

8.登录,如果不登录爬虫是爬不到一些具体内容的,这个功能类似于一个录像,把你登录的过程和注销的过程录下来,按照录像进行深层次的爬行(就是在awvs中在登录一次,很简单)

9.第一个框是传感器,后面有具体讲解,第二个是爬到的链接,如果要扫描其中某一个就勾选,第三个框是保存,把这次的扫描进行保存,留着以后用

10.开始扫描
报告分析(他扫的是真的慢啊)

1.安全等级和漏洞危险级数

2.下一栏是目标信息,如能否响应,web服务器版本,操作系统等等

3.扫描时间,发出请求,响应时间

4.扫出的结果,web方面的漏洞

5.我们点进去看看,可以看到具体内容,看描述:此安全(https)页包含一个正在发布到不安全(http)页的表单。他们可能认为自己的数据是加密的,而事实上它不是。像失效链接这种东西就可能有用。site struction是扫描到的目录。

6.点击页面中report生成报告,点击红色部分导出

各种功能 Site Crawler (根据自己需要设置)


第一项:在扫描介绍的时候开启http sniffer是为了让用户手动浏览,防止爬虫没有爬到,当扫描快结束的时候会将没有爬到的弹出来
第二项:只爬行网站首页的链接(所有)
第三项:不抓上级目录
第四项:抓子目录
第五项:即使未连接也获取目录索引
第六项:处理robots.txt和sitemap.xml
第七项:忽略大小写
第八项:优先爬取这类文件
第九项:防止无限递归目录,如admin/admin/admin…
第10项:只请求链接的文件
第11项:忽略相应的文件格式
第12项:防止自定义404
第13项:有无www视为一个
第14项:启用输入限制探索法
第15项:禁止已知应用的路径操作
第16项:优化已知应用

HTTP Editor

右击打开,得到请求头,请求数据,结构分析之类的东西(可以修改)


可进行加密解密,选择协议,请求方式等等

Target Finder (目标查找)

扫描单个或范围内的ip,也可以得到请求头请求数据

Subodmain Scanner(子域名扫描)

输入的是根域名,没有 www的那种,同时可以选择DNS和时间,会扫描到类似xxxx.acunetix.com的域名

Authentication Tester(认证测试)


从上到下分别是认证地址,表单和http,错误关键字,用户名和密码的字典

他会自动检测输入框,然后分别与用户名和密码对应,设置关键字,start就行了。

HTTP Sniffer

跟brupsuite功能类似,抓包改包,设置好代理后就可以了

这里可以设置各种陷阱,类似于改包

设置陷阱后他会自动弹出,所有东西都是可以修改的

HTTP Fuzzer

这个功能跟brupsuite爆破功能类似。
抓包后复制粘贴到这个栏目,然后可以设置fuzzer过滤器,如规则的描述,规则的类型等等(有些webshell有跳转,响应码是302)

插入测试点,添加变量类型,如数字类型,字符类型,文件类型等等,载入字典就选文件类型。

在这里可以载入字典,txt格式

AWVS12 面板


新版的AWVS没有了许多工具,但是速度快了很多,最方便的就是在网页上,不会的英文可以直接翻译

过程

1.点击Targets,add Target进行添加网址,可以批量导入

2.可以填入账号密码,方便通过验证(也可以像旧版一样产生一个记录文件),同时可以加入不扫描的站点(如注销)

3.爬虫的相应设置


4.可以设置扫描速度,漏洞的危险程度,添加描述,设置连续扫描等等

5.点击scan,根据你想要的进行设置

6.新版的比旧版的简单很多,因为有翻译的存在,这个栏目可以查看漏洞,筛选漏洞,生成报告,查看漏洞详情

7.设置扫描策略,都选就行

只能说各有各的长处了

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。