关于网站伪静态这一块,很早之前我就在许多平台发布过相关的文章,今天应菜狗君之约,今天回顾整理一下。

此次“伪静态系列”总共有三篇:

一、网站伪静态后怎样写robots屏蔽动态页面

二、伪静态使用不当易生成大量重复收录页面

三、分享伪静态页面不如动态页面的原因

今天一起分享出来:

许多站长在建设网址之后,没有来得及伪静态就直接上线,之后伪静态但是百度收录了很多的动态页面。那么我们的网站伪静态后怎样写robots屏蔽动态页面呢?我在很多书籍和网站上没有找到详细的解答方案,伪静态后怎样写robots屏蔽动态页面是一个炙手可热的问题,也是许多站长很头疼的事情。因为这直接导致你的动态页面是否被收录,如果被收录会出现一个重复的静态页面,如果重复页面过多势必导致降权。那么我们伪静态后怎样写robots屏蔽动态页面呢?

首先,我们要做的是查清楚,哪些页面是没有进行过伪静态的。在我之前做的一个伪静态的文件中,网页的页数就没有写伪静态,导致这个页面的第二页和第三页以后的页面全是动态的。所以,这个问题是不可忽视的问题,在iis服务器或apache服务器里面重写规则的时候记得要带上页码的代码。

其次,robots.txt文件的规范性。许多同学估计在开头就没有进行空格。这个空格在哪里呢?例如,robots.txt文件的开头:

        “User-agent: * 

        Disallow: /plus/ad_js.php”

很多的时候,user-agent分号后面没有空格,而是直接“*”号了。这就是一个很微小的错误,但是也是致命的错误。

网站伪静态后怎样写robots屏蔽动态页面1

网站伪静态后怎样写robots屏蔽动态页面2

最后,要注意的是,我们知道php动态页面都是从数据调用的数据,而这个网页不是真实存在的,所以搜索引擎久而久之就会丢弃这样的页面,它会认为这是不可靠的页面。所以我们要屏蔽这样的动态页面,从而降低我们网页的重复页面。那么我们只要在robots.txt文件里面,加上这样的代码就行了:"Disallow:/*?*”。这个代码的意思是根目录下个所有动态禁止搜索引擎访问。

网站伪静态后怎样写robots屏蔽动态页面3

讲了这么多,站长朋友们是否明白伪静态后怎样写robots屏蔽动态页面呢?网站伪静态之后一定要反复检查,哪些页面没有静态化的,导致出现重复页面。

发布评论

分享到:

特菜狗

SEO做得好让你生意旺旺旺

伪静态使用不当易生成大量重复收录页面
你是第一个吃螃蟹的人
发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。