apache日志分析,求解。
最近维护公司网站服务器时发现一个问题,每天总是有一段时间网站访问不上去,ping服务器IP时会出现丢包的现象,然后这段时间过了以后就好了。我查看了一下apache的日志文件以后发现里面有报错的现象,截屏如下
以上就是截屏,帮忙分析一下原因。
以上就是截屏,帮忙分析一下原因。
作者: HoukunHK 发布时间: 2011-04-25
查询结果[1]: 203.208.60.67 ==>> 203.208.60.67 ==>> 3419421763 ==>> 北京市 谷歌(中国)公司
作者: T5500 发布时间: 2011-04-25
网站最近调整过url规则吗,好像机器人来抓的页面都是404错误哦。
如果都集中在某个或某几个不存在的目录,写个robots.txt(UNIX格式)文件放到网站根目录下吧,比如:
User-agent: *
Disallow: /目录1
Disallow: /目录2
如果都集中在某个或某几个不存在的目录,写个robots.txt(UNIX格式)文件放到网站根目录下吧,比如:
User-agent: *
Disallow: /目录1
Disallow: /目录2
作者: T5500 发布时间: 2011-04-25
没有做过URL规则,就在服务器上做过基于IP的虚拟端口
引用 2 楼 t5500 的回复:
网站最近调整过url规则吗,好像机器人来抓的页面都是404错误哦。
如果都集中在某个或某几个不存在的目录,写个robots.txt(UNIX格式)文件放到网站根目录下吧,比如:
User-agent: *
Disallow: /目录1
Disallow: /目录2
网站最近调整过url规则吗,好像机器人来抓的页面都是404错误哦。
如果都集中在某个或某几个不存在的目录,写个robots.txt(UNIX格式)文件放到网站根目录下吧,比如:
User-agent: *
Disallow: /目录1
Disallow: /目录2
作者: HoukunHK 发布时间: 2011-04-25