该方法是通用的。它用于向 Yandex 和 Google 隐藏信息。这是清除网站中模糊其相关性的内容的最佳方法。搜索引擎不认可这种方法。他们希望搜索机器人能够访问与访问者相同的内容。
许多人使用 AJAX 技术。如果您不进行彻底的隐身行为,那么就可以避免对此的制裁。这种方法的缺点是需要阻止对脚本的访问,尽管搜索引擎不建议这样做。
网站页面
要成功推广网站,您不仅应该清 菲律宾 手机号 除页面中不必要的内容,还应该从网站的搜索索引中排除“垃圾”(无用的页面)。因此,提升的页面将被更快地编入索引。另外,如果索引中存在大量垃圾页面,这会对资源的评价及其推广产生不良影响。
应隐藏哪些页面:
订购页面、用户购物车;
网站搜索结果;
用户的个人数据;
产品对比结果页面及其他辅助模块;
由搜索过滤器和排序生成的页面;
网站管理部分的页面;
可打印版本。
阻止页面建立索引的方法有哪些:
文本
方法不太好。首先,机器人文件无法对抗重复项并清除垃圾页面。其次,机器人并不总是允许您阻止网站建立索引。
无索引
使用此元标记可以确保页面从索引中排除。
Yandex 和 Google 的语法不同。
这是两个搜索引擎都能理解的元标记:
<meta name="robots" content="noindex, nofollow">
如果拒绝访问 robots.txt 文件中关闭的页面,Googlebot 将看到 noindex 元标记。否则,机器人甚至可能不会访问这些页面。
密码保护
此方法应用于隐藏敏感数据。谷歌强调它是可靠的。
如果您需要阻止对整个站点的访问(例如测试版本),那么此方法是完美的。但它也是不完美的 - 如果您需要扫描受密码保护的域,您可能会遇到困难。
阿贾克斯
这种方法不仅可以从索引中排除通过过滤、排序等生成的页面,还可以消除它们创建的可能性。
例如,如果访问者在过滤器中选择了必要的参数,而没有单独的页面,则当更改页面上显示的产品时,URL 本身不会更改。
有关此主题的推荐文章:
设置 301 重定向的备忘单
检查robots.txt:常见错误及其消除
内部网站优化:分步分析
这种方法并不容易,因为不可能同时应用于所有情况。一些生成的页面用于促销。
例如,过滤器生成的页面。对于“冰箱+三星+白色”,该页面是必需的,但对于“冰箱+三星+白色+两室+无霜”-不再需要。在这方面,需要一个创建异常的工具。这使得程序员的工作变得更加困难。