Page 1 of 1

阿贾克斯

Posted: Wed Dec 18, 2024 5:36 am
by subornaakter93
该方法是通用的。它用于向 Yandex 和 Google 隐藏信息。这是清除网站中模糊其相关性的内容的最佳方法。搜索引擎不认可这种方法。他们希望搜索机器人能够访问与访问者相同的内容。

许多人使用 AJAX 技术。如果您不进行彻底的隐身行为,那么就可以避免对此的制裁。这种方法的缺点是需要阻止对脚本的访问,尽管搜索引擎不建议这样做。

网站页面
要成功推广网站,您不仅应该清 菲律宾 手机号 除页面中不必要的内容,还应该从网站的搜索索引中排除“垃圾”(无用的页面)。因此,提升的页面将被更快地编入索引。另外,如果索引中存在大量垃圾页面,这会对资源的评价及其推广产生不良影响。

应隐藏哪些页面:

Image


订购页面、用户购物车;

网站搜索结果;

用户的个人数据;

产品对比结果页面及其他辅助模块;

由搜索过滤器和排序生成的页面;

网站管理部分的页面;

可打印版本。

阻止页面建立索引的方法有哪些:

文本
方法不太好。首先,机器人文件无法对抗重复项并清除垃圾页面。其次,机器人并不总是允许您阻止网站建立索引。

无索引
使用此元标记可以确保页面从索引中排除。

Yandex 和 Google 的语法不同。

这是两个搜索引擎都能理解的元标记:

<meta name="robots" content="noindex, nofollow">

如果拒绝访问 robots.txt 文件中关闭的页面,Googlebot 将看到 noindex 元标记。否则,机器人甚至可能不会访问这些页面。

密码保护
此方法应用于隐藏敏感数据。谷歌强调它是可靠的。

如果您需要阻止对整个站点的访问(例如测试版本),那么此方法是完美的。但它也是不完美的 - 如果您需要扫描受密码保护的域,您可能会遇到困难。

阿贾克斯
这种方法不仅可以从索引中排除通过过滤、排序等生成的页面,还可以消除它们创建的可能性。

例如,如果访问者在过滤器中选择了必要的参数,而没有单独的页面,则当更改页面上显示的产品时,URL 本身不会更改。

有关此主题的推荐文章:
设置 301 重定向的备忘单

检查robots.txt:常见错误及其消除

内部网站优化:分步分析

这种方法并不容易,因为不可能同时应用于所有情况。一些生成的页面用于促销。

例如,过滤器生成的页面。对于“冰箱+三星+白色”,该页面是必需的,但对于“冰箱+三星+白色+两室+无霜”-不再需要。在这方面,需要一个创建异常的工具。这使得程序员的工作变得更加困难。