2012-03-24 89 views

回答

1

要回答这个问题,您可以使用robots.txt来阻止网址。

参考:http://support.google.com/webmasters/bin/answer.py?hl=en&answer=156449

但更准确的方式来完成,根据马特是这样的:

如果内容是真正的复制和有基本上多种方式降落在该网页上,我会建议使用canaonical网址。他们基本上告诉蜘蛛这个页面=多个页面的一个普通的URL。

参考:http://www.mattcutts.com/blog/seo-advice-url-canonicalization/