搜索引擎不收录网站页面16种原因
<p style="TEXT-INDENT: 2em;">1、网页使用框架:框架内的内容通常不在搜索引擎抓取的范围之内。 </p><p style="TEXT-INDENT: 2em;">2、图片太多,文本太少。 </p><p style="TEXT-INDENT: 2em;">3、提交页面转向另一网站:搜索引擎可能完全跳过这个页面。 </p><p style="TEXT-INDENT: 2em;">4、提交太过频繁:一个月内提交2次以上,很多搜索引擎就受不了,认为你在提交垃圾。 </p><p style="TEXT-INDENT: 2em;">5、网站关键词密度太大:不幸的是搜索引擎并没解释多高的密度是极限,一般认为100个字的描述中含有3-4个关键词为最佳。 </p><p style="TEXT-INDENT: 2em;">6、文本颜色跟背景色彩一样:搜索引擎认为你在堆砌关键词欺骗它。 </p><p style="TEXT-INDENT: 2em;">7、动态网页:网站的内容管理系统方便了网页更新,却给大部分搜索引擎带来麻烦,很多搜索引擎不收取动态页面,或只收取第一层页面,不会向下深入收取。这时要考虑使用WEB服务器的重写(rewrite)<nobr>技术</nobr>,把动态页面的url映射成和静态页面url相似的格式,搜索引擎误以为是静态页面,就会收取了。 </p><p style="TEXT-INDENT: 2em;">8、网站转移服务器:搜索引擎通常只认IP地址,转换主机或域名时,IP/DNS地址发生改变,这时你要重新提交网站。 </p><p style="TEXT-INDENT: 2em;">9、免费的网站空间:有的搜索引擎拒绝索引来自免费空间的网站,抱怨很多垃圾,质量差。 </p><p style="TEXT-INDENT: 2em;">10、搜索引擎抓取时网站不在线:如果主机不稳定,就有可能出现这种情况。更糟糕的是,即使网站已经收录,重新抓取时发现不在线,还会将网站整个删除。 </p><p style="TEXT-INDENT: 2em;">11、错误地阻挡了robots索引网站:有两种方法可能阻挡robots:主机服务器的根目录下有简单文本文件;网页中含某种META标签。 </p><p style="TEXT-INDENT: 2em;">12、大量运用<nobr>Flash</nobr>、DHTML、cookies、<nobr>JavaScript</nobr>、Java制作或密码进入的网页,搜索引擎很难从这种页面中提取内容。 </p><p style="TEXT-INDENT: 2em;">13、搜索引擎不能解析你的DNS:新域名注册后需要1-2天的时间才能生效,因此不要一注册了域名马上提交网站。 </p><p style="TEXT-INDENT: 2em;">14、网站的链接广泛度太低:链接广泛度太低,搜索引擎难以找到你,这时要考虑把网站登录到知名分类目录,或多做几个<nobr>友情</nobr>链接。 </p><p style="TEXT-INDENT: 2em;">15、服务器速度太慢:<nobr>网络</nobr>带宽小,网页下载速度太慢,或者网页太复杂,都可能导致搜索引擎还没搜到文本内容就暂停。 </p><p style="TEXT-INDENT: 2em;">16、关键字问题:如果正文没有出现你的META标签中提到的关键字,搜索引擎可能以为是垃圾关键字。</p> 搜索引擎现在可以抓取到框架了吧
页:
[1]