Scavenger:在不同的paste网站上搜索泄漏的凭据

Scavenger是一款可在多个paste网站上搜索泄漏的凭据的工具。

Scavenger – OSINT Bot

自动化Snyk依赖以下扫描结果:

已知漏洞

处于活动中的bot

介绍

我的OSInt bot会在不同paste网站上搜索敏感数据泄漏。

当前支持搜索的内容如下:

用户凭据

RSA私钥

WordPress配置文件

MySQL连接字符串

Onion链接

托管在Onion网络内的文件链接(PDF、DOC、DOCX、XLS、XLSX)

这里我需要提前向大家说明下:

这个bot并不完美,而且也存在很多缺陷。我当时在编写它时只花了很短的时间,代码很粗造…我想说我从来不关心这些问题。

到目前为止,代码还未完成。该在线存储库中也并不完整,例如没有在数据库中集成凭据。

如果你想使用此代码,那么请随意。但你必须自定义一些内容,以让其在你的系统上可以正常运行。

另外,它可能会存在一些误报的情况,并因此会错过一些可能对你而言非常重要的凭据。所以,如果你有更好的检测想法,那么请随时告诉我!

关于 Scavenger 的文章

https://jakecreps.com/2019/05/08/osint-collection-tools-for-pastebin/

https://jakecreps.com/2019/01/08/scavenger/

重要

bot可以在两种主要模式下运行:

API模式

爬取模式(使用TOR)

我强烈建议你使用API模式。这对于从Pastebin.com爬取pastes非常好用。你唯一需要的就是一个Pastebin.com PRO帐户,并在其网站上将你的公共IP添加到白名单中。

想要以API模式启动bot,只需按以下方式运行即可:

python run.py -0

但是,并不总是可以使用这种模式,在有些情况下例如你可能处于NAT模式,因此你没有专门的IP(将IP添加到白名单在这里是不合理的)。这也是为什么我实现了另一种爬取模式的原因。在这种模式下,快速的Tor循环与合理的用户代理结合使用,可避免IP锁定和Cloudflare验证码。

想要以爬取模式启动bot,只需按以下方式运行即可:

python run.py -1

重要说明:你需要在系统上安装TOR服务,侦听端口9050。此外,你还需要将以下行添加到/etc/tor/torrc文件中。

MaxCircuitDirtiness 30

这会将TOR的最大循环时间设置为30秒。

使用

想要了解有关该工具的更多使用信息,运行以下命令即可:

python run.py -h

输出内容如下:

_________
 /   _____/ ____ _____ ___  __ ____   ____    ____   ___________
 \_____  \_/ ___\\__  \\  \/ // __ \ /    \  / ___\_/ __ \_  __ \
 /        \  \___ / __ \\   /\  ___/|   |  \/ /_/  >  ___/|  | \/
/_______  /\___  >____  /\_/  \___  >___|  /\___  / \___  >__|
        \/     \/     \/          \/     \//_____/      \/

usage: run.py [-h] [-0] [-1] [-2] [-ps]

Control software for the different modules of this paste crawler.

optional arguments:
  -h, --help            show this help message and exit
  -0, --pastebinCOMapi  Activate Pastebin.com module (using API)
  -1, --pastebinCOMtor  Activate Pastebin.com module (standard scraping using
                        TOR to avoid IP blocking)
  -2, --pasteORG        Activate Paste.org module
  -ps, --pStatistic     Show a simple statistic.

到目前为止,我只实现了Pastebin.com模块,我正在使用Paste.org。未来我将添加更多模块并更新此脚本。

启动Pastebin.com模块(我实现的第一个模块):

python P_bot.py

Pastes被存储到了data/raw_pastes中,直到它们的数量超过了48000。当它们超过这个数时,它们就会被过滤、压缩并移动到归档文件夹中。包含凭据的所有Pastes都会被存储在data/files_with_passwords中。

记住,目前只能检测到USERNAME:PASSWORD以及一些简单的组合。但是,有一个工具可以帮助你搜索包含凭据的代理日志。

你可以使用getProxyLogs.py文件搜索代理日志(包含用户名和密码组合的URL)

python getProxyLogs.py data/raw_pastes

如果要在原始数据中搜索某些特定字符串,可以使用searchRaw.py(速度较慢)来完成。

python searchRaw.py SEARCHSTRING

查看bot的统计信息:

python status.py

文件findSensitiveData.py在文件夹(使用pastes)中搜索敏感数据,如信用卡,RSA密钥或mysqli_connect字符串。记住,此脚本使用grep,因此如果paste文件较大的话速度将非常的慢。如果你想分析大型的pastes文件,我建议你使用ELK-Stack。

python findSensitiveData.py data/raw_pastes

stalk_user.py/stalk_user_wrapper.py有两个脚本,可用于监视特定的Twitter用户。这意味着他发布的每条推文都会被保存,并且每个包含的URL都会被下载。 执行以下命令,启动监控:

python stalk_user_wrapper.py

未来将要做的

我已发现了一些像Pastebin这样类似的网站,它们可以读取最新的paste并抓取它们。我需要将它们集成到我的bot中。如果你也发现了一些不错的网站,请告诉我们。

Examples:

https://slexy.org/recent


http://pastebin.fr


http://pastebin.es/lists

http://pastebin.it/archive.php

*参考来源: GitHub ,FB小编secist编译,转载请注明来自FreeBuf.COM

我来评几句
登录后评论

已发表评论数()

相关站点

+订阅
热门文章