我正在研究Web应用程序,它允许用户依次创建自己的Web应用程序。对于由我的应用程序创建的每个新Webapp,请指定一个新子域。 例如subdomain1.xyzdomain.com,subdomain2.xyzdomain.com等选择性索引子域
所有这些Webapps是一存储在数据库和Python脚本(比如 default_script.py)保持在/var/www/
供应。 到目前为止,我已经使用robots.txt阻止了目录(/var/www/
)的搜索引擎索引。这基本上阻止了我所有脚本的索引,包括default_script.py以及使用default_script.py脚本为多个webapps提供的内容。
但现在我希望这些子域中的一些应该被索引。
之后搜索,而我能够在的robots.txt
明确specifing他们想出一个办法来阻止我的脚本的索引,但我仍然怀疑如下:
将阻止我的default_script.py免受索引也会阻止从default_script.py提供的所有内容的索引编制。如果是,那么如果我让它索引,也会在搜索结果中显示default_script.py。
我该如何允许选择一些子域的索引。
例如:指数subdomain1.xyzdomain.com但不是subdomain2.xyzdomain.com
感谢@Rafael,这个回答我的第一个问题。你对第二个有什么想法吗? – lalit 2012-08-06 13:46:11
所以,你的意思是一个子域robots.txt将从数据库提供,而不是从/ var/www /。因为我在我的案例中看到robots.txt是从/ var/www /而非数据库获取的,我正在使用它来阻止我的脚本文件。 – lalit 2012-08-07 04:56:30
有很多方法可以做到这一点。您可以为每个包含特定版本的robots.txt的子域创建单独的文件目录。或者你可以在服务器端重写robots.txt的feteches到subdomain.robots.txt。或者您可以按照您的建议从数据库提供服务。 – 2012-08-07 18:02:43