1
User-agent: Googlebot
Disallow: /privatedir/
User-agent: *
Disallow:/
现在,什么是不允许的Googlebot:/ privatedir /,或整个网站/?robots.txt中的指令顺序是否互相覆盖或相互补充?
User-agent: Googlebot
Disallow: /privatedir/
User-agent: *
Disallow:/
现在,什么是不允许的Googlebot:/ privatedir /,或整个网站/?robots.txt中的指令顺序是否互相覆盖或相互补充?
按照original robots.txt specification:
僵尸必须遵循符合其用户代理名称的第一个记录。
如果这样的记录不存在,它必须遵循记录User-agent: *
(该行可能不会出现在多条记录中)。
如果这样的记录不存在,则不必遵循任何记录。
所以一个机器人永远不会超过一条记录。
对于你的榜样,这意味着:
/privatedir/
开始的路径检索的网址。
优秀的答案!比原始的robots.txt规范更清晰。谢谢! – peter