Actualización de Chrome 41 a 74, WRS y Javascript en Google

Hacia tiempo que no escribía, la idea es que a partir de este post volveré a estar en activo en el blog, intentaré sacar 1 o 2 articulos al mes, sobre updates, experimentos, nichos y un largo etc siempre que vea que puedo aportar algo de valor o sea interesante. En este articulo vamos hablar sobre javascript y como ha evolucionado en Google.

Por si no sabes te pongo en situación. Digamos resumidamente que Google se basa en 5 puntos:

  • Crawleo
  • Clasificación ( No en cuanto a ponderaciones, lo explicaré próximamente)
  • Indexación
  • Puntuación
  • Respuesta de usuario

¿Qué es el crawling? (Definición sencilla y básica)

Es el proceso por el cual se detecta y extrae código de una web y de sus enlaces tanto internos como externos. Si quieres ampliar información sobre esta parte hice un post hace tiempo hablando de crawl budget y otro sobre como optimizar o mejorar el crawleo.

El proceso de rastreo empieza con una lista de urls de anteriores rastreos y con los sitemaps que proporcionamos los propietarios de sitios web, hay muchas formas de forzar el rastreo pero que no es el momento de comentar. El bot, araña o crawler obtiene una lista de direcciones URL para visitar y almacenar. El rastreador no clasifica las páginas, solo las sigue, y se pregunta puedo acceder? hay alguna otra url que pueda acceder?. Si la respuesta es SI, obtiene código que envía para que luego se decida su clasificación y si procede la indexación. Entre otras cosas accede también a css, javascript etc…

Dato curioso: El primer rastreador fue el World Wide Web Wander y apareció en 1993

Aquí os dejo una lista de los crawlers de google:

https://support.google.com/webmasters/answer/1061943?hl=es

Caffeine: El es el indexador que se lanzó en 2010 . Lo que sea que rastree Googlebot será indexado por Caffeine y ese índice es donde Google elige las páginas web para puntuarlas. Pues WRS es un subsistema de Caffeine, muchos confunden bastante estos puntos, dentro de caffeine hay mas algoritmos, como el famoso PR que se sigue usando o el de canonicals. Aclarado esto veamos que pasa con el WRS, que vas a estar leyendo ahora mucho sobre el porque hacia 4 años que no se actualizaba.

¿Qué diferencia hay entre Renderizar solo HTML sin JS a con JS?

¿Qué sucede si solo encuentra html?

  • 1. Googlebot descarga el archivo HTML sin procesar de su página web. 
  • 2. Googlebot pasa el archivo HTML a Caffeine para extraer todos los enlaces y metadatos. 
  • 3. Googlebot continúa rastreando todos los enlaces descubiertos. 
  • 4. El contenido extraído es indexado por Caffeine y utilizado para la clasificación.

¿Qué sucede si encuentra JS?

  • 1. Se descargan archivos HTML.
  • 2. Los datos CSS y JavaScript se descargarán en paralelo.
  • 3. Se utiliza WRS (Web Rendering Service) (parte de  Google Caffeine) para ejecutar JS.
  • 4. WRS renderiza todos los archivos.
  • 5. Ahora Google Caffeine puede indexar el contenido si es necesario.
  • 6. Y en ese momento es cuando Googlebot puede rastrear nuevos enlaces.

Aquí vemos las 2 olas de indexación explicado en Imagen

Actualización de Chrome 41 a 74, WRS y Javascript en Google 2

¿Que significa que WRS se basaba en chrome 41?

Desde 2015 google basaba su WRS en chrome 41, el cual no soportaba bastantes cosas de html5,css3 aquí podíamos ver que soportaba y qué no:

http://caniuse.com/#compare=chrome+41

Pues estaba limitado a lo que esa versión del navegador soportaba y sus características. Habrás escuchado que Google le cuesta renderizar Javascript, para que te hagas una idea el chrome que solemos usar es la versión 72-74, imagínate la de nuevas funciones y diferencias que hay aproximadamente unas 900.

¿Qué limitaciones reales había o hay?

Pues teniendo en cuenta que se basaba en un chrome antiguo, los datos de almacenamiento local y de sesión y cookies http se borran entre una carga de página y otra, Web Sockets, WebGL, WebVR, IndexedDB y WebSQL no están soportados, aceptaba hasta ES5, WRS rechaza las solicitudes de permisos que dependan del usuario ( de ahí el famoso onclic y «ofuscaciones»), etc…

Google acaba de actualizar WRS basado en Chrome 74

Bueno y no solo eso también ha dicho que lo va estar actualizando constantemente no cada 4 años jeje, de primeras ahora casi todo lo nuevo es que acepta ECMAScript (ES6), ojo que de Bing, y otros buscadores o rastreadores como de redes sociales sean capaces de interpretar la sintaxis de ES6. No obstante tampoco me aventuraría a nada, antes hay que testear bastantes cosas, y lo de siempre con Google, coge las cosas con pinzas. Que ya me veo a los amantes de React, Angular, Vue, Svelte 3, y vanilla aplaudiendo.

Comparación de WRS nuevo y viejo

Tampoco sabemos muy a ciencia cierta que otras cosas han cambiado, si te puedo decir que a día de hoy desde el 7 de agosto se actualizó la mayoría de herramientas de prueba para que usen el «Evergreen Chromium Renderer» y que donde antes algunas cosas no se renderizaban ahora si.

El cambio afectará la representación dentro de las siguientes herramientas:

  • Herramienta de inspección de URL de Search Console
  • Prueba para dispositivos móviles
  • Prueba de resultados enriquecidos
  • Prueba de AMP

Por ahora en los logs que tengo acceso sigue usando el mismo user agent y en las herramientas que mencioné también (Día 14 de mayo 2019)

¿Quiere decir que ya no hay 2 olas de indexación?

Ojalá pero no jeje, entre el rastreo y la representación del javascript se sigue realizando en procesos separados.

¿Ha cambiado el onclic y la ofuscación de enlaces?

Para resolver esta pregunta he creado el siguiente experimento sobre si rastrea google el onclic

Conforme sepa más datos seguiré actualizando el post.

Share This