首页 > 其他分享 >海外SRC信息收集工具

海外SRC信息收集工具

时间:2024-10-10 22:22:38浏览次数:1  
标签:SRC 收集 -- cat URL https 工具 txt com

海外SRC信息收集

子域名爆破工具:bbot,subfinder

​ 相关测评:https://blog.blacklanternsecurity.com/p/subdomain-enumeration-tool-face-off

​ bbot收集的子域名最多,subfinder跑的最快

image-20240927210301249

bbot使用

​ api配置:vim ~/.config/bbot/secrets.yml (配置api辅助收集)

​ 常用命令:

# 收集evilcorp.com的子域名,结果输出到evilcorp.txt文件中
bbot -t evilcorp.com -p subdomain-enum | grep '[DNS_NAME]' | cut -f2 | tee evilcorp.txt 

# 提取子域名,输出到domain.txt中
cat evilcorp.txt | grep '[DNS_NAME]' | cut -f2 | tee domain.txt 

# 只进行被动扫描
bbot --flags passive --targets evilcorp.com

subfinder使用

​ api配置:vim $HOME/.config/subfinder/provider-config.yaml(尽可能多api)

​ 常用命令:

# 收集hackerone域名,结果保存为当前目录下hackerone2.txt
subfinder -d hackerone.com -all -silent | tee hackerone2.txt

amass使用
# 被动
amass enum --passive -d example.com -o example.txt

# DNS枚举
amass enum -brute -min-for-recursive 2 -d example.com

​ 使用多个工具收集子域名保存为txt文件,再进行去重:

cat subdomain1.txt subdomain2.txt subdomain3.txt | anew allsubdomains.txt

cat subdomain1.txt subdomain2.txt subdomain3.txt | sort -u > allsubdomains.txt

模糊测试工具:ffuf

​ 常用命令:

​ 基本使用:

# 对hackerone.com进行fuzz,只输出结果
ffuf -w ./wordlist.txt -u https://hackerone.com/FUZZ -s

# 多个单词列表:
ffuf -w domains.txt:DOMAIN -w wordlist.txt:WORD -u 'https://DOMAIN/WORD'

# 过滤结果,后面加上
-mc 200,300-304,401-403

端口扫描工具:nmap

​ 进行端口扫描得到一些隐藏信息

​ 基本使用:

nmap -T4 -sV -sn target_ip
探测存活

​ httpx:

​ 详细:https://blog.csdn.net/u010062917/article/details/121878824

# sub.txt不带协议头,subs_live.txt带协议头
cat domain.txt | httpx | tee domain_live.txt

爬取URL

gau:

​ URL最多,脏数据也很多,建议过滤再去重

$ printf example.com | gau
$ cat domains.txt | gau --threads 5
$ gau example.com google.com
$ gau --o example-urls.txt example.com
$ gau --blacklist png,jpg,gif example.com

# 找到子域名后:
cat domain_live.txt | gau > gau_out.txt

waybackurls:

cat domains.txt | waybackurls > url1.txt

waymore:

​ 找到比其他现有工具更多的链接

# 单个域名只获取 URL
waymore -i hackerone.com -mode U

# 批量获取,不下载
cat domain.txt | waymore -mode U | tee url2.txt
Hakrawler

​ 用于收集 URL 和 JavaScript 文件位置的快速 golang 网络爬虫,

​ 注意:传入的是URL,可以在子域名爆破后用httpx探测存活,再传入hakrawler

image-20241003223741832

# 单个 URL
echo https://google.com | hakrawler

# 多个 URL
cat urls.txt | hakrawler -subs | tee url3.txt
katana

​ 爬取URL

 # 
 cat domain_live.txt | katana -sc -kf robotstxt,sitemapxml -jc -c 50 > url4.txt

​ 来源:https://github.com/projectdiscovery/katana

gospider

​ 用 Go 编写的快速网络蜘蛛

​ 来源:https://github.com/jaeles-project/gospider

gospider -S subs_live.txt -o gospider_output -c 10 -d 2  --other-source --subs --sitemap --robots
paramspider(单独使用):

paramspider允许您从 Wayback 档案中获取与任何域或域列表相关的 URL。它会过滤掉“无聊”的 URL,让您专注于最重要的 URL(sql,xss等)

paramspider -d example.com
paramspider -l domains.txt

​ URL去重:

cat url1.txt url2.txt url3.txt | anew urls.txt

cat url1.txt url2.txt url3.txt | sort -u > urls.txt
目录扫描

​ 字典(配合ffuf)

# 通用字典
https://github.com/danielmiessler/SecLists/blob/master/uzzing/403/403.md (403绕过)
https://github.com/danielmiessler/SecLists/blob/master/Fuzzing/fuzz-Bo0oM.txt(4k)
https://github.com/Bo0oM/fuzz.txt/blob/master/fuzz.txt (5k)
https://github.com/orwagodfather/WordList/blob/main/fuzz.txt(22k
https://github.com/thehlopster/hfuzz/blob/master/hfuzz.txt(18w)
https:/github.com/six2dez/OneListForAll

# 自定义字典(有时会有奇效) urls.txt是去重后的URL
	获取路径字典
   cat urls.txt | unfurl paths | sed 's/^.//' |  sort -u | egrep -iv 
"\.(jpg|swf|mp3|mp4|m3u8|ts|jpeg|gif|css|tif|tiff|png|ttf|woff|woff2|ico|pdf|svg|txt|js)" | tee paths.txt  
	获取参数字典
   cat urls.txt | unfurl keys | sort -u | tee params.txt

​ dirsearch

# 不要404
python3 dirsearch.py -u https://target -x 404

# 指定字典 
python3 dirsearch.py  -u https://target -w /path/to/wordlist

# 递归
python3 dirsearch.py -u https://target -r
python3 dirsearch.py -u https://target -r --max-recursion-depth 3 --recursion-status 200-399

​ BBscan

# 从文件扫描
python BBScan.py -f urls.txt --api

# 从命令行扫描
python BBScan.py --host www.test.com 

# 更多
https://github.com/lijiejie/BBScan
信息收集自动化工具

​ shuize:

python3 ShuiZe.py -d domain.com	收集单一的根域名资产
python3 ShuiZe.py --domainFile domain.txt	批量跑根域名列表
python3 ShuiZe.py -c 192.168.1.0,192.168.2.0,192.168.3.0	收集C段资产
python3 ShuiZe.py -f url.txt	对url里的网站漏洞检测
python3 ShuiZe.py --fofaTitle XXX大学	从fofa里收集标题为XXX大学的资产,然后漏洞检测
python3 ShuiZe.py -d domain.com --justInfoGather 1	仅信息收集,不检测漏洞
python3 ShuiZe.py -d domain.com --ksubdomain 0	不调用ksubdomain爆破子域名

绕过403

​ 工具:https://github.com/iamj0ker/bypass-403

​ 也可以ffuf模糊测试

标签:SRC,收集,--,cat,URL,https,工具,txt,com
From: https://www.cnblogs.com/left-shoulder/p/18457306

相关文章

  • LLM 收集
    ChatBotChatGPTClaude文生图MidjourneyDELL-E3文生视频LumaLabsOpenAISora暂无法使用:HowtoaccessSora?|OpenAIHelpCenterMetaMovieGenRunwayGen3......
  • 轻松原创!短剧,带货视频AI自动批量混剪工具!
    今天再分享这个批量剪辑神器,非常适合短剧和带货短视频的制作,轻松过原创,提供了从视频分割、合成、混剪到格式转换的多项功能。以下是它的主要功能:视频分割与提取按时长或段数分割按镜头转场变化分割按语音内容自动分割提取无声视频或音频视频合成自动合成文......
  • 轻松原创!短剧,带货视频AI自动批量混剪工具!
    今天再分享这个批量剪辑神器,非常适合短剧和带货短视频的制作,轻松过原创,提供了从视频分割、合成、混剪到格式转换的多项功能。以下是它的主要功能:视频分割与提取按时长或段数分割按镜头转场变化分割按语音内容自动分割提取无声视频或音频视频合成自动合成文......
  • 轻松原创!短剧,带货视频AI自动批量混剪工具!
    今天再分享这个批量剪辑神器,非常适合短剧和带货短视频的制作,轻松过原创,提供了从视频分割、合成、混剪到格式转换的多项功能。以下是它的主要功能:视频分割与提取按时长或段数分割按镜头转场变化分割按语音内容自动分割提取无声视频或音频视频合成自动合成文......
  • 抖店商家电话搜集工具 抖音商家电话爬虫店铺采集器
    分享小编:电商小达人作者:1030249563(V)Java爬虫的实现在Java中,我们可以使用Jsoup库来简化网络请求和HTML解析的过程。以下是一个简单的爬虫示例代码,用于抓取抖音小店中的商品信息。Maven依赖首先,你需要在项目的pom.xml文件中添加Jsoup的依赖:org.jsoupjsoup1.14.3......
  • AI工具的力量:人们最喜欢的AI工具及其实际影响
    AI工具的力量:人们最喜欢的AI工具及其实际影响文章目录AI工具的力量:人们最喜欢的AI工具及其实际影响人们最喜欢的AI工具AI工具的实际应用与影响AI工具带来的挑战与未来结语人工智能(AI)正在以飞快的速度改变我们的生活方式,从工作到娱乐,各行各业都逐渐依赖于AI工具的帮......
  • 比CesiumLab还好用的工具:免费的倾斜摄影OSGB/3Dtiles编辑转换发布平台
    GIS数据处理工具在现代技术与应用中扮演着至关重要的角色,它们不仅是连接原始地理信息与可分析、可视化数据的桥梁,更是推动地理信息系统(GIS)在各个行业领域深入发展与应用不可或缺的关键工具。选择一款合适的工具直接关系到数据处理、分析和展示的效率和精度,本文将对比GISBox、Ce......
  • httpCLient请求工具类封装
    1、okhttp工具类依赖:<dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><depe......
  • 又一款windows搜索神器!非常实用的文件搜索工具,可以说很智能了(带私活源码)
     哈喽,大家好,今天为大家介绍一款文件搜索神器!Listary简介Listary是一款非常实用的搜索工具,它可以为“我的电脑”(资源管理器)添加许多智能命令,包括收藏文件夹、快速打开最近浏览的文件夹、快速显示/隐藏文件扩展名等功能。这些实用功能可以帮助你在日常收藏和整理文件时提高效......
  • Rust 与生成式 AI:从语言选择到开发工具的演进
    在现代软件开发领域,Rust语言正在逐步崭露头角,尤其是在高性能和可靠性要求较高的应用场景。与此同时,生成式AI的崛起正在重新塑造开发者的工作方式,从代码生成到智能调试,生成式AI的应用正成为提升开发效率和质量的重要工具。在本文中,我们将详细探讨Rust语言的现状与趋势,并分析......