多做题,通过考试没问题!

百度SEM认证考试

睦霖题库>通信电子计算机技能考试>百度SEM认证考试

Robots.txt文件是搜索引擎抓取网站第一个需要查看的文件,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。在www.domain.com中,如禁止所有搜索引擎程序抓取www.domain.com/A下所有内容,Robots文件应如何设置?()

  • A、"User-agent:*Disallow:/A"
  • B、"User-agent:Allow:/A"
  • C、"User-agent:Disallow:/"
  • D、"User-agent:*Allow:/"
正确答案:A
答案解析:
进入题库查看解析

微信扫一扫手机做题