
禁止直接访问robots.txt文件
很久没去360站长平台,一直听说他把robots当漏洞来处理,其实很不地道,也就为了推广他家主机卫士吧,实际上这个算不上漏洞,充其量是因此泄露而已! 以下代码是禁止直接访问,但匹配并排除搜索引擎蜘蛛

很久没去360站长平台,一直听说他把robots当漏洞来处理,其实很不地道,也就为了推广他家主机卫士吧,实际上这个算不上漏洞,充其量是因此泄露而已! 以下代码是禁止直接访问,但匹配并排除搜索引擎蜘蛛
根目录 | – api 接口文件目录 | – caches 缓存文件目录 | – configs 系统配置文件目录 | – caches_* 系统缓存目录 | – phpcms phpcms框 […]
编辑vi /usr/local/pureftpd/pure-ftpd.conf 查找LimitRecursion ,将后面的2000换成大一点的数 重启purefptd :/etc/init.d/pureftpd restart