当前节点:rss
时间节点
2020-07-11 18:02:49Nearg1e
闲聊前一段时间,导师说希望我写一个备份Wooyun公开漏洞信息的爬虫程序,为了避免某些突发情况;写完之后还没爬下来我们去比ISCC,河南的ISCC上网特别麻烦,所以队友君就说“要是有一个离线的漏洞库而且能检索就好了”,于是这事就又到了我头上。考虑到以下三点:
2020-07-11 18:02:49Nearg1e
实验环境:
KALI (IN VMWARE)
Metasploit (IN KALI)
Android 4.1.2
Apache2 (IN KALI)

实验步骤:
2020-07-11 18:02:49零の杂货铺
拥有强大的扫描能力和全面的漏洞规则就能干好企业漏扫吗?那怕是要被业务喷死了。

0x00 序言漏洞自动化发掘一直是业内热衷于研究的技术之一,大到BAT,小到个人白帽,都有自己的一套漏扫工具。谈到漏洞扫描,一方面被提到最多的是扫描器技术理念如何先进,使用了分布可扩展的扫描节点,拥有了JS渲染的爬虫能力,底层的网络协议做了优化,能够对程序执行进行埋点等等。另一方面是规则覆盖如何准确,拥有插件式的扫描模块添加,针对规则能够做特定的payload变异,能够fuzz收集目标特征辅助扫描等等。
但是真正在企业的安全管理运营中,你会发现扫描器绝不仅仅是开发几个功能,架设起服务器就开扫这么简单。当业务方的一封封投诉邮件发到你的邮箱时,就不得不把顾及业务方感受的扫描器运营提到议程中来。
0x01 扫描效率VS业务干扰从漏洞发现、资产探测的角度来说,我们是尽可能希望扫描速度够快,恨不得一天轮训一遍所有的企业资产,但过快的扫描速度同时也会给业务方带来困扰,即便是在业务方能够准确识别自己人的扫描器特征前提下,依然会遇到一些问题。

业务方日志里大量充斥的扫描信息会对应用正常的运行调试排查带来干扰
巡检扫描的时间随机性导致在一些特殊时段触发了业务的运行监控告警
扫描效率过高带的带宽尖峰数据

扫描器要真正产生作用,往往是需要扫描量的保证的,之所以用自动化技术,其实就是希望能够和外部的漏洞发现打一个时间差和覆盖差,但站在业务诉求角度,我们希望扫描器是对业务无感知的,尤其希望避免半夜三更,业务被应用告警信息惊醒后,拉一堆人在一起排查原因这种情况。有时候会以自己不扫外部也会扫这样的说法来回应,但其实仔细一想,内部扫描器对业务的了解是更深层次的,所以这种干扰规模也不是外部扫描器可以对比的。
0x02 安全扫描规则VS不安全的业务实现漏洞内审用的扫描规则都是经过严密推敲的,往往都是通过带外手段证明漏洞存在,但其实考虑再周到,遇到很多特殊的业务实现场景时,也难免会有疏漏。比如腾讯安全博客里曾经提到的因为延时注入而导致数据库挂起的事件,从内审的角度来说,基于时间的注入探测对于内部扫描器来说具有更加统一的判断模式和不会向业务插入脏数据的优势,但即便如此,也会有影响业务的时候。
类似的场景还有很多,比如为了不对业务进行修改,内部扫描器往往在权限上会比较克制,但如果遇到压根就没做权限控制的业务接口,扫描器就难免会对数据造成影响。还有由于业务的代码异常处理机制
2020-07-11 18:02:49零の杂货铺
老人换过案堂上的土地画像,点上三只香,跨过门槛,将香插在门槛的角落,烟气从堂屋飘溯到屋外,扩散开来……

老人换过案堂上的土地画像,点上三只香,跨过门槛,将香插在门槛的角落,烟气从堂屋飘溯到屋外,扩散开来……这是老家除夕的仪式感。
仪式感给我们的意义其实是超越了对礼教的遵守和对鬼神的崇拜的,虽然它们曾经是仪式的起源。生命伊始的抓周代表了父母对孩子一生的期望,弱冠及笄代表着对年岁成长的肯定,漫长的生老病死中,伴随着各种充满仪式的活动。现代式的忙碌让我们忘却了时间的变化,季节的更迭,我们不再有那么多精力去经营我们的生活。
仪式感不一定在于外在形式的如何隆重壮丽,而在于一个群体的心理认同。仪式感也不该成为什么商业的营销辞令,而是根植于文化中,我们对生活经营、对自然变化、对年岁流逝产生的庄严正视的态度。那些将仪式感作为一种社会共识而严肃对待的国家或民族,往往会展现更强的自我认同感。
2020-07-11 18:02:48零の杂货铺
本来说专心搞毕业论文的,还是忍不住做了几天。Writeup 基本漫天飞了,这里主要记录脑洞过程以及~~按照官方的要求,过几天到时间了再发。_(:з」∠)_

0x00 前言总体感受,Web 比较中规中矩(除了翻人家博客那个,不看评论可能就 get 不到这个脑洞);逆向和 PWN 跟着网上别人的思路走了一遍,权当学习;杂项的密钥分发和声纹倒是之前少见的点。
0x01 滴~解密 URL 里的字符发现是两次 base64+hex,发现是图片名 flag.jpg。猜测可能是文件读取。构造 index.php 的编码字符串 TmprMlpUWTBOalUzT0RKbE56QTJPRGN3。读取到的源码有两个点。
一个点是别人的博客,访问后在大家的评论中知道是另一篇博客,然后卡在这里一天,第二天随手试了一下博客里的文件名,发现了 flag 的文件名 “f1ag!ddctf.php”
第二个点是 config 的过滤,一开始还以为是要绕这个规则,后来发现不是,直接利用过滤去读第一个点的 flag 文件就行了。
0x02 Web签到题对于页面很干净的网页,要么上手扫文件,要么抓包看回复,要么看 JS。
index.js 中发现另一个接口,伪造 http 头访问
1didictf_username: admin
发现源码文件,看到几个敏感词知道是反序列化,利用反序列化的点需要伪造 cookie,伪造 cookie 需要知道 key。
12345678if(!empty($_POST["nickname"])) {            $arr = array($_POST["nickname"],$this->eancrykey);            $data = "Welcome my friend %s";            foreach ($arr as $k => $v) {                $data = sprintf($data,$v);            }            parent::response($data,"Welcome");        }
这段代码可以看出,利用 nickname=%s 可以带出加密 key,这个点也是前一天访问怎么都没反应,第二天就好了。
有了 key 之后,生成序列化的 Applica
2020-07-11 18:02:48零の杂货铺
利益相关(大雾)~,MushMush 的号称下一代先进蜜罐的一整套系统,Glastopf 的升级版。部署什么的参照官方文档啦,有点小坑但跑起来问题不会太大,这次主要是把玩记录。
0x00 系统简介部署过 Web 蜜罐的估计都知道大名鼎鼎的 Glastopf,它其中的许多特性都很值得借鉴,不过,一个默认没有经过改良的 Glastopf 蜜罐是这个样子的,指纹堆叠确实能够很好的应对扫描器(如果确实用 AWVS 之类的扫描器扫过的话),但是视觉效果上略有不足。 

于是 MushMush 推出了它的替代品,就是 Snare 和 Tanner。Snare 负责基本款的蜜罐生成,可以通过爬虫来学习任意网站,这样就弥补了视觉上的缺陷;而 Tanner 负责进一步的攻击反馈和数据分析,也就是充当蜜罐大脑(Honeybrain)来进行决策。
0x01 Snare单独把 Snare 提出来看,其实它算是一个低交互可以模拟任意网站的蜜罐生成套件。可以看做有三部分,Clone 模块负责爬取网站,并且存储路由与页面的对应信息;Server 负责把存储的网页解析起来,并且接受请求路由进行匹配;Tanner 连接的部分负责把请求包装发送给 Tanner 并且接收返回的数据。
先看一下,以我的博客为例,生成的蜜罐。这种爬虫机制还是能够比较好的对这种页面进行模拟的,但是从它的机制来看,能不能很好的模拟 Web2.0 的一些站点还是一个问题。
基本参数启动:
1snare --page-dir phantom0301.cc --host-ip=127.0.0.1

Clone克隆工具的实现很简洁,HTTP 请求加 BeautifulSoup 解析,提取网页中的链接,网页类型,链接格式进行判断后,存储路由和它的 hash 表,整个网页以 hash 命名后存储为文件。存储结果如下所示
123{"/index.html": {"hash": "d1546d731a9f30cc80127d57142a482b", }
利用路由表+爬虫的方式进行蜜罐生成很多人都做过研究,这里算是实现了最基础版的蜜罐生成。
Server服务器使用 Jinja 来加载网页文件,使用 nsq 来做信息传输(这一部分可以参考以前提过的 hpfeed 协议),从代码中可以看出,Snare 继续沿用了 Glastopf 的 Dork 机制,开启参数后,就
2020-07-11 18:02:48零の杂货铺
Windows中遇到了Java RMI,反弹又不那么方便,这时该如何利用呢? It’s a question。 正好加强Java学习了。
0x00 预备知识理解Java RMI——Java远程调用提供了不同机器之间进行对象方法访问的能力,这样的构架允许一台机器的对象访问另一台机器的对象方法,而这种远程调用必然需要传递对象数据结构,因此就需要序列化和反序列化,在此过程中,如果服务器上可以被使用的对象存在漏洞,通过客户端构造相应的序列化数据就可以触发漏洞。
Apache Common Collections Java的第三方库,提供更加强大的集合数据结构。它的一段代码中存在调用方法和对象可控的情况,因此可以实现命令执行。在这种情况下,这个第三方包无论用或者没用,都有可能被开发者打包进程序,成为程序中存在的对象,结合RMI机制,攻击者就有可能调用到这些危险的对象。
Java 8版本121更新后对RMI注册类进行了限制,因此需要寻找白名单内的类存在漏洞的情况,参考文献中列出了收集到的解决方法。
0x01 测试环境搭建避开Java版本的坑之后,测试环境很好完成,写一个RMI服务器,放入Common Collections第三方包,启动服务器即可,详细实现代码如下:
RMIInterface 接口
123456import java.rmi.Remote;import java.rmi.RemoteException;public interface RMIInterface extends Remote {    String sayHello() throws RemoteException;}
RMIServer 服务器
1234567891011121314151617181920212223import java.rmi.Remote;import java.rmi.registry.LocateRegistry;import java.rmi.registry.Registry;import java.rmi.server.UnicastRemoteObject;public class RMIServer implements RMIInterface {    public String sayHello() {        return "Hello World!"
2020-07-11 18:02:48零の杂货铺
最近面试微博安全的时候,大BOSS提到微博安全一个重要的点就是虚假刷榜行为的检测,这里就涉及到虚假用户的检测,所以阅读了一篇相关文献。

0x00 文献简介原文标题: SybilBlind: Detecting Fake Users in OnlineSocial Networks without Manual Labels
原文作者:Binghui Wang, Le Zhang, and Neil Zhenqiang Gong
原文出处:https://arxiv.org/pdf/1806.04853.pdf (RAID 2018)
虚假用户往往会被攻击者利用来发动政治安全、经济安全、个人安全等方面的攻击,包括操纵选举、控制舆论、影响股票以及垃圾邮件和钓鱼攻击等。作为业务安全的一部分,社交服务提供商十分重视相关安全层面的检测。
0x01 研究背景本领域已有研究方法如下:
1 基于结构的方法

随机漫步(Random Walks)和混沌置信传播 (LBP)

随机漫步通俗一点说是指我们无法预测运动的下一步动作,但是可以对整个运动的密度分布规律进行掌握,进而进行预测研究的方法。
混沌置信传播是指,马尔科夫随机场中每个节点之间的概率分布会相互干扰,最终在多次迭代中,会达到概率分布的稳态。

社区发现算法(Community Detection Algorithms)

从图结构中找出社群的一系列方法。
2 基于信息的方法

通过对用户内容、用户行为、用户社交结构特征进行分类训练的方法。

其实从这里我们可以看出论文研究中设计模型的两种常见方法,一种是通过理论去计算设计模型,一种是基于实践经验来设计模型,这个问题我觉得可以细聊,这里就不多说了。传统需要 label 的模型存在以下几点问题:

人工标记耗时
无法检测新模式的虚假用户
标记训练集可能被攻击者用于规则逃逸

0x02 论文模型三部分构成
采样器——检测器——聚合器
采样器对社区图进行相同节点的随机采样标记,检测器利用以前论文中提到的模型进行检测,聚合器根据两个指标进行判别修正检测结果,最后在多次迭代中得到一个趋于稳定的检测模型。
采样器部分提到了随机标记和不同的极化场景,随机标记意味着对于采样结果的区域进行随机label,这时,随机label与真实label之间就会存在差异,这种差异定义为噪声。不同的极化场景会影响已有检测器的性能,正向极化场景下,每个标签域
2020-07-11 18:02:48零の杂货铺
一直想用Python的上层覆盖机制HOOK关键函数来实现一个RASP,最近有时间收集了这方面的一些资料。

0x00 引子RASP (Runtime application self-protection),运行时应用自我保护。很早之前提出的一个防御概念,将防御注入到应用程序中,不需要修改原有应用的业务代码即可实现对原有应用的防护。
详细概念参考绿盟的这篇讲解:
http://blog.nsfocus.net/rasp-tech/#RASP-2
Python HOOK  函数劫持打算通过 Python 动态分析中用到的命名空间覆盖的机制,对危险函数及类操作进行中转重写。其实相当于
相应的技术参考下面篇技术:
逢魔安全实验室的研究
聂大佬的研究
pyekaboo-自动化的hook生成工具
0x01 从函数hook到类hook函数 hook模块函数 hook 可以直接通过覆盖劫持的方式进行,这种情况适用于面向过程以函数为主的模块。
示例如下,这里为了环境方便,直接在 umarfarook882 的一个 web demo 上进行修改测试(其实他在视频里已经展示了自己针对不同语言实现的RASP,但是 github 上只放出了测试环境,并未提供RASP代码)。
首先是一个命令执行的测试页面,现在我们希望不修改代码,直接在应用中内嵌防御模块。

命令执行的实现代码如下:
12345678910def post(self):        print("POST call")        print("POST ", self.request.uri,"\nBODY", self.request.body)        ping = self.get_argument('ping')        result = os.popen(ping)        res = result.read()        a = ''        for line in res.splitlines():            a += str(line)        self.render("ping.html",msg=a)
通过 hook 关键 os 函数 popen,可以实现一个针对命令执行的防御,详细代码如下:
123456789101112131415161718192021222324252627282930313
2020-07-11 18:02:47零の杂货铺
极客互联网企业可以参考的安全建设解决方案

0x00 前言有时候会接触一些做那种小而美的产品的互联网公司,可能整个公司两个leader,三个程序员,一间写字楼办公间,一两个在某些方面有一定用户量的产品,也因此会被黑客觊觎。
这样的公司要么就是公司里有几台服务器,要么干脆只有几台云服务,使用大规模的商业解决方案显然不符合这些公司的ROI期望,即便是开源的安全测试工具也有一定的学习代价,对于这些小企业来说,只要能够第一时间发现有攻击,那么他们就可以及时修改业务代码、修正业务口令或者联系乙方公司来做相应的安全服务,因此,这些公司的关注点,或者说从成本考虑一般更加侧重于监控防御体系的建设。
那么,这一类小公司的安全防护需求就集中在业务区实时监控和业务区数据防泄漏。
0x01 小型的实时监控方案个人觉得,实时监控主要集中在两个层面,一个是真正的安全攻击监控(包括扫描攻击、持久性攻击等),另一个是业务风险监控(包括批量用户注册、薅羊毛等)。
从安全攻击监控出发,需要能够满足远程攻击实时报警、大批量远程攻击实时阻断、本地业务服务器文件监控、访问操作行为日志记录(防删除)这几个需求。
选型思路:基于以上的需求,从互联网上提供的解决方案中进行选择,主要考虑经济成本(单纯从物理上需要付出的金钱)、技术成本(人员有限,基本不会开发专门的安全产品,部署需要简单),另外考虑到乙方安全公司的服务需求,还应该尽可能的保存访问日志。
特别要说的是,平时大家都会吐槽基于规则如何如何过时,锁,盾,狗如何如何可以被bypass,但是真正落到实处来,对于小企业来说,这些东西还真的可以帮他们抵抗住很多低付出成本的网络攻击。
1.1 本地级防护方案

LINUX(不限平台的也都放到这里)
Clamav,Linux的主机病毒防护软件,http://www.clamav.net/
RKhunter,rootkit检测,http://rkhunter.sourceforge.net/
Snort/Suricata,网络流量分析,https://www.snort.org/
Kong,开源Web网关,支持包括认证、日志记录、限速等功能,https://github.com/Kong/kong
Nebular,开源风控,https://github.com/threathunterX/nebula
Bro,开源流量分析,https://www.bro.org/
OS
2020-07-11 18:02:47零の杂货铺
纯技术学习

0x00 前言一直希望能够从技术实现的层面去了解区块链技术,借助其他人的总结,大致以Geth为例了解了一下区块链技术。技术流程主要参照Andrew Back的分享,但是他的技术文章中也有一些小的错误,特别进行记录。
0x01 Geth简介及基本命令Go Ethereum是以太坊协议的Go语言实现,以太坊和比特币的区别应该很多布道者都讲过,只要去看那些不拿赚钱说事的文章就可以了。
使用Ubuntu系统直接安装
sudo add-apt-repository -y ppa:ethereum/ethereum
sudo apt-get update
sudo apt-get install ethereum
安装完成后,我们按照创建用户、启动节点、绑定节点并进行基本信息的查询

创建账户

1geth account new

创建时输入口令,成功后输出账户地址

启动一个轻量级的节点

1geth --syncmode light --cache 64 --maxpeers 12
如果不跟任何参数,启动的节点将会从同步公有节点的全部信息,因此我们只同步轻量级的区块头信息。

可以看到,该节点不断在导入新的区块头

连接节点

1geth attach
连接进我们新建的节点后,可以使用geth的基本信息查看指令



基本指令集
作用
示例




eth
区块链相关操作
eth.accounts 查看系统中所有账户eth.getBlock(0)获取区块信息


net
网络相关操作
net.peerCount连接进公网的节点个数


admin
节点管理操作
admin.nodeInfo.enode当前节点地址


miner
挖矿操作
miner.start()开始挖矿


personal
账户管理操作
personal.newAccount()新建账户personal.unlockAccount()解锁账户


txpool
交易内存池信息
txpool.status


web3
对象及单位换算操作
web3.toWei()以太币换算



0x02 文件系统
在建立私链实验之前,我们可以看一下,geth节点新建后文件格式。默认情况下,没有指定文件路径的情况下,会在当前用户目录下新建.ethereum文件夹,具体目录如下:
1234567891011.ethereum   |-geth     
2020-07-11 18:02:47零の杂货铺
难得抽出时间肝了两天,应该算是参加CTF以来做出题最多的一次了_(:з」∠)_

0x01 (╯°□°)╯︵ ┻━┻进制转换,先将16进制转换为10进制,再对128求余,剩下的结果转换为字符。

0x02 第四扩展FS迷之一题
使用binwalk提取图片压缩包,发现加密,同时里面有一个ext2文件,利用Win下的ext读取工具加载后发现内容为空。
多次操作无果后,重新打开图片发现一段特殊代码:

直觉下用Pactera去解压,竟然解压成功了。
接下来的文本根据提示进行字符频度统计即可得到flag。
0x03 流量分析利用wireshark发现FTP有两个zip文件,一堆邮件,zip文件加密且格式有问题,所以无解,查询邮件发现有一张图片应该是密钥。
进行图片识别,这里很容易将l和1,0和o识别错误,所以需要手动进行更正,再将正确的密钥导入wireshark,跟踪SSL流即可得到flag。

0x04 安全通信ECB模式的分组加密可以通过改变分组位置进行攻击,这里nc上去之后可以通过输入Agent ID来操纵flag的分组位置,因此可以进行逐位爆破,

0x05 数据库的秘密第一步进行X-Forworded-For欺骗
第二步利用Burp代理始终显示隐藏表单
第三步这里是一个时间盲注,利用sleep(ascii(a-b)),把一个时间盲注转化为布尔盲注,进行注入。
详细payload如下:
1test'and (sleep((ascii(substr((select SCHEMA_NAME from information_schema.SCHEMATA LIMIT 0,1),1,1))-100)));#
最终在flag9表中中获取到flag
0x06 专属链接进入页面后发现有一个base64编码的任意文件读取,可以读取xml、class、ks等格式的文件,先读取配置文件web.xml和applicationContext.xml。
发现有一个监听器的class,下载回来后进行反编译,是一段用于加密的代码,大致逻辑是利用sdl.ks中的公钥对flag进行加密,那么我们现在就需要找到密文,发现密文是一起放进flago里然后入库的。
在主页面发现另一个连接
1<!--/flag/testflag/yourflag-->
任意访问后报错发现,还有一个文件
1com.didichuxing.ctf.control
2020-07-11 18:02:47零の杂货铺
某CMS改动后又给自己挖坑了
0x00 起因组里的师弟在学习代码审计时遇到了某CMS的一个XSS漏洞,问题在于老版本是没有这个漏洞的,而且看起来也调用了相关的过滤函数,但是XSS还是触发了。
经过讨论分析,发现了其中的奥妙。
0x01 PHP类继承面向对象的特性就不在多说明了,直接看以下示例代码。
我们首先写一个基础类文件 base.class.php
123456789101112131415<?phpclass base{	public $name;	public function __construct(){		echo 'base construct<br>';		$this->filter($this->name);	}	protected function filter(){		$this->name=$_GET['name']; 		echo 'SQL filter<br>';	}}?>
base类显式定义一个构造器,调用自己的过滤函数,假设该过滤函数为SQL注入过滤,由于和我们讨论的问题无关,这里就不在具体写filter函数的代码。
接下来是测试函数 test.php
1234567891011121314151617181920212223242526272829303132333435<?phprequire_once('base.class.php');class web1 extends base{	public function __construct(){		parent::__construct();		echo 'web1 construct<br>';	}	protected function filter(){		parent::filter();		$this->name=$_GET['name'];		$this->name = htmlspecialchars($this->name);		echo 'XSS filter<br>';		}}class web2 extends web1{	public function __construct
2020-07-11 18:02:47零の杂货铺
这并不是一篇手把手教你部署多节点OpenStack的文章,但是如果你正打算部署一套多节点Openstack,本文可以给你提供一点个人的心得。
0x01 版本和官方文档部署的第一步就是选好版本,这个专门写给和我一样刚接触Openstack的人。
https://releases.openstack.org/
在这里可以看到已经release的版本,不同的版本在不同系统上的安装难度不同,比如常见的M和L版对于Ubuntu 16.04的支持就不是很好,这时候使用O和N版部署就会更加轻松。
另外,官方文档中的中文版只有M和L版,而且个人感觉使用一些跳转时不够便捷。
0x02 多节点和网络网络上能够查找的资料中单节点部署做测试的较多,即便是多节点,大多数也是在虚拟机环境下完成,当然,真正有条件接触大规模物理机部署场景的大牛很多都是对云计算有深入了解的,不需要再在网络查阅过多资料。那么对于和我一样的新手来说,小规模多物理节点部署Openstack又需要注意哪些点呢?
横向还是纵向Openstack不同的服务都以组件的方式提供API接口服务,这意味着你可以将不同服务任意拆分到不同的物理机器上,出于网络访问性能的考虑,有一些组件默认应该安装到一起,比如向所有组件提供功能的数据库、分布队列、缓存一般都在控制节点上,提供认证服务的keystone、提供网络服务的neutron、提供镜像服务的glance也会一并安装在控制节点上,通常计算服务和存储服务会被分布到其他物理机上,那么这时就涉及到是横向分配服务,还是纵向分配服务的问题。
横向分配是指计算节点只运行nova,存储节点只运行swift和cinder,这是Openstack官网上给出的范例。
而这里的纵向分配是指包括控制节点在内的所有物理主机都安装完整的计算服务和存储服务
两种方式的区别在于,横向分配易于单组件安装,并且方便管理,当安装或运行过程中出现错误时可以根据错误的情形快速定位到故障物理主机,但是每台物理主机只运行特定一种服务的话,一旦某一类服务的主机出现故障,就会影响整个云服务的使用。
而纵向分配的方式增加了管理成本,一旦出现故障需要对每一台主机都进行排查,但是这样部署的话,控制节点可以自己一人完成所有云计算逻辑,和任意其他主机都能组成扩展性的计算逻辑,如果有多台主机宕机时,只要保证控制节点健壮,就能持续提供云服务。
需要几个物理网络多物理节点部署时,物理主机的网络拓扑是
2020-07-11 18:02:47零の杂货铺
2020-07-11 18:02:46小草窝博客
基于 https://github.com/TideSec/TideFinger/blob/master/cms_finger.db cms指纹库中的fofa指纹。 可以看到识别规则会包含一些逻辑运算符,原作者只使用了正则来粗略的处... 阅读全文>>
2020-07-11 18:02:46小草窝博客
渗透测试百分之90的时间在信息收集 自动化刷src的程序慢慢的多了起来,但是寻找目标可能会花费大量时间。每个人都自己进行一次信息收集,有点重复了。 目前也没有一个网站来收集这些信息,所以,hacking8安全信息流新增了一个src资产收集的导航程序,收集了HackerOne,BugCrowd等SRC的资产,来帮助白帽子们节省时间~ 阅读全文>>
2020-07-11 18:02:46小草窝博客
原本时间很忙,只能抽出空来更新,但自己立的flag,含着泪也要完成。 W13scan 是基于Python3的一款开源的Web漏洞发现工具,它支持主动扫描模式和被动扫描模式,能运行在Windows、Linux、Mac上。 这次更新加入了基于语义解析的xss扫描模块,http smuggling走私攻击,fastjson检测模块,.net XSS检测等,优化了之前的漏洞扫描模块,现在所有模块都支持GET,POST,COOKIE类型请求的检测,部分模块支持对伪静态uri上进行检测。w13scan也对自身的代码结构,以及漏洞插件api调用方式等进行了一次打的更新,漏洞检测代码会看起来更简洁,更优美。 新版能够实时生成h... 阅读全文>>
2020-07-11 18:02:46小草窝博客
受困于每天刷很多网站浪费时间,于是五一花了几天时间将自己每天刷的信息做成了一个网站,每日推送信息,有安全类,有娱乐类,用了几天感觉还不错,再也不用一个个网站的打开了。 理想是作为干净的信息流推送工具,偏向安全圈的点点滴滴,为安全研究人员每日发现优质内容。 最近新加入了微博和twitter的爬虫,我关注的twitter和微博的大牛发言也能在网站上显示了。 每日更新 阅读全文>>
2020-07-11 18:02:46小草窝博客
最近为了护网开始整理poc,整理到redis这类,这是一个编写日志。 搜索https://paper.seebug.org/?keyword=redis 中的几篇文章,有几种方式 写文件基于主从复制模式命令执行Lua rce lua rce影响的版本比较低,暂时不考虑了,于是开始着手,对redis poc的验证功能,写文件功能,基于主从复制的命令执行功能进行编写。整个功能下来需要实现一个简单的redis client,同时保证下主从复制模式下能够支持大部分系统... 阅读全文>>