了解搜查引擎是如何抓取、渲染和索引网页的,关于针对搜查引擎提升网站至关关键。多年来,随着谷歌等搜查引擎不时扭转其流程,咱们很难了解哪些有效,哪些有效--尤其是客户端 JavaScript。
咱们留意到,一些古老的观点不时存在,让社区对运行 SEO 的最佳通常不足信念:
为了处置这些疑问,咱们与上游的搜查引擎提升和数据工程咨询公司 MERJ[1] 协作,对 Google 的抓取行为启动了新的试验。咱们剖析了不同网站上超越 100,000 次的 Googlelebot 抓取行为,以测试和验证 Google 的搜查引擎提升才干。
让咱们来看看 Google 的渲染形式是如何演化的。而后,咱们将讨论咱们的发现及其对现代web运行的实践影响。
多年来,谷歌抓取和索引网页内容的才干出现了清楚变动。了解这一演化关于了解现代web运行的搜查引擎提升现状十分关键。
在搜查的早期,谷歌关键索引静态 HTML 内容。搜查引擎基本上看不到 JavaScript 生成的内容,这造成静态 HTML 被宽泛用于搜查引擎提升。
谷歌推出了 AJAX 抓取打算,准许网站提供灵活生成内容的 HTML 快照。这是一种权宜之计,须要开发人员为网页创立独自的可抓取版本
谷歌开局经常使用无头 Chrome 阅读器渲染网页,标志着向前迈进了一大步。不过,这种旧版阅读器在处置现代 JavaScript 性能方面仍有局限。
如今,谷歌经常使用最新版本的 Chrome 阅读器启动渲染,与最新的网络技术坚持同步。系统的关键方面包括:
在更好地了解 Google 的才干之后,让咱们来看看一些经常出现的误区以及它们对搜查引擎提升的影响。
为了钻研以下误区,咱们经常使用 Vercel 的基础架构和 MERJ 的网络渲染监控器(WRM)技术启动了一项钻研。咱们的钻研重点是 nextjs.org[2],以及 monogram.io[3] 和 basement.io[4] 的补充数据,期间跨度为 2024 年 4 月 1 日至 4 月 30 日。
咱们在这些网站上搁置了一个定制的边缘两边件[5],用于阻拦和剖析来自搜查引擎机器人的恳求。经过该两边件,咱们可以:
该 JavaScript 库在页面渲染成功时触发,向常年运转的主机发送数据,其中包括:
经过比拟主机访问日志中的初始恳求和咱们的两边件向外部灯塔主机发送的数据,咱们可以:
在本文中,咱们关键关注来自 Googlebot 的数据,它提供了最大、最牢靠的数据集。咱们的剖析包括超越 37,000 个与主机-灯塔对婚配的渲染 HTML 页面,为咱们提供了一个弱小的样原本得出论断。
咱们仍在搜集其余搜查引擎的数据,包括 OpenAI 和 Anthropic 等人工自动提供商的数据,并宿愿在未来更多地讨论咱们的发现。
在上方的章节中,咱们将深化讨论每个误区,并在必要时提供更多相关方法。
这一误区造成许多开发人员避开 JS 框架,或驳回复杂的变通方法来成功SEO。
为了测试 Google 渲染 JavaScript 内容的才干,咱们重点关注了三个关键方面:
一个经常出现的曲解是,谷歌对 JavaScript 较多的网页有独自的处置程序或规范。咱们的钻研以及 Google 的官网申明掩饰了这一误区。
为了测试 Google 在哪些方面对 JS 较多的页面采取了不同的处置形式,咱们采取了几种有针对性的方法:
许多SEO从业人员以为,由于渲染队列的要素,JavaScript 较多的网页在索引环节中会面临严重的提前。咱们的钻研对这一环节有了更明晰的意识。
为了处置渲染队列和期间对搜查引擎提升的影响,咱们启动了以下考查:
渲染提前散布如下:
令人惊讶的是,第 25 百分位数的页面在初始抓取后 4 秒内就能渲染,这对 "长队列" 的概念提出了质疑。
虽然有些页面面临严重的提前(第 99 百分位数的页面提后期间长达约 18 小时),但这些都是例外,而不是惯例。
咱们还观察到一些幽默的形式,这些形式与 Google 如何极速渲染带有查问字符串 (?param=xyz)的 URL 无关:
这些数据标明,假设 URL 蕴含不影响内容的查问字符串,Google 会以不同的形式处置 URL。例如,在 nextjs.org[19] 上,带有 ?ref= 参数的页面的渲染提后期间更长,尤其是在百分位数较高的状况下。
此外,咱们留意到,与较静态的部分相比,/docs 等经常降级的部分的中位渲染期间较短。例如,/showcase 页面虽然经常被链接,但渲染期间却更长,这标明 Google 或许会放慢对变动不大的页面的从新渲染速度。
SEO界一直以为,JavaScript 量大的网站,尤其是那些依赖于客户端渲染(CSR)的网站,如单页运行程序(SPA),谷歌发现页面的速度较慢。咱们的钻研在这方面提供了新的见地。
为了钻研 JavaScript 对页面发现的影响,咱们:
咱们的钻研掩饰了 Google 处置 JavaScript 重度网站的几个经常出现误区。以下是关键论断和可行倡导:
正如咱们曾经讨论过的,在谷歌的才干方面,不同的渲染战略[30]存在一些差异:
特性 |
静态网站生成(SSG) |
增量式静态再生(ISR) |
主机端渲染(SSR) |
客户端渲染(CSR) |
抓取效率:谷歌访问、渲染和检索网页的速度和效率。 |
低劣 |
低劣 |
十分好 |
差 |
发现:寻觅要抓取的新 URL 的环节*。 |
低劣 |
低劣 |
低劣 |
平均 |
渲染完整性(失误、失败等):谷歌加载和处置网页的准确性和完整性。 |
健全 |
健全 |
健全 |
或许失败** |
渲染Google 齐全渲染和处置网页所需的期间。 |
低劣 |
低劣 |
低劣 |
差 |
链接结构评价:谷歌如何评价链接以了解网站架构和页面的关键性。 |
渲染后 |
渲染后 |
渲染后 |
渲染后,假设渲染失败,链接或许会失落 |
索引:谷歌存储和组织网站内容的环节。 |
健全 |
健全 |
健全 |
假设渲染失败,或许无法索引 |
** 谷歌渲染通常不会失败,咱们的钻研曾经证明了这一点;假设失败,通常是由于 robots.txt 中的资源被封或特定的边缘状况。
虽然存在这些纤细差异,但无论驳回哪种渲染战略,谷歌都会很快发现并索引你的网站。与其担忧谷歌渲染环节的不凡顺应性,不如专一于创立有益于用户的高性能网络运行程序。
毕竟,页面速度依然是一个排名要素,由于谷歌的页面体验排名系统会依据谷歌的外围Web目的[31]来评价网站的性能。
此外,页面速度与良好的用户体验毫不相关--每节俭 100 毫秒的加载期间,网站转化率就会提高 8%。更少的用户跳出你的页面象征着谷歌将其视为更相关的页面。性能选择一切,毫秒至关关键。
本文译自:
[1]MERJ:
[2]nextjs.org:
[3]monogram.io:
[4]basement.io:
[5]边缘两边件:
[6]轻量级 JavaScript 库:
[7]nextjs.org:
[8]Next.js.org:
[9]nextjs.org:
[10]nextjs.org:
[11]Next.js App Router:
[12]RSC:
[13]nextjs.org:
[14]流式传输不会对 SEO 发生不利影响:
[15]nextjs.org:
[16]nextjs.org:
[17]nextjs.org:
[18]nextjs.org:
[19]nextjs.org:
[20]nextjs.org:
[21]nextjs.org:
[22]2Fwebsite.com:
[23]Google 的懒加载最佳通常:
[24]失误边界:
[25]用于渲染的关键资源:
[26]增量静态再生:
[27]经常使用并活期降级网站地图:
[28]URL 审核工具:
[29]富媒体搜查结果工具:
[30]渲染战略:
[31]外围Web目的:
本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载联系作者并注明出处:https://duobeib.com/diannaowangluoweixiu/8575.html