Hacia tiempo que no escribía, soy Álvaro Rondón consultor SEO y la idea es que a partir de este post volveré a estar en activo en el blog, intentaré sacar 1 o 2 articulos al mes, sobre updates, experimentos, nichos y un largo etc siempre que vea que puedo aportar algo de valor o sea interesante. En este articulo vamos hablar sobre javascript y como ha evolucionado en Google.
Por si no sabes te pongo en situación. Digamos resumidamente que Google se basa en 5 puntos:
- Crawleo
- Clasificación ( No en cuanto a ponderaciones, lo explicaré próximamente)
- Indexación
- Puntuación
- Respuesta de usuario
¿Qué es el crawling? (Definición sencilla y básica)
Es el proceso por el cual se detecta y extrae código de una web y de sus enlaces tanto internos como externos. Si quieres ampliar información sobre esta parte hice un post hace tiempo hablando de crawl budget y otro sobre como optimizar o mejorar el crawleo.
El proceso de rastreo empieza con una lista de urls de anteriores rastreos y con los sitemaps que proporcionamos los propietarios de sitios web, hay muchas formas de forzar el rastreo pero que no es el momento de comentar. El bot, araña o crawler obtiene una lista de direcciones URL para visitar y almacenar. El rastreador no clasifica las páginas, solo las sigue, y se pregunta puedo acceder? hay alguna otra url que pueda acceder?. Si la respuesta es SI, obtiene código que envía para que luego se decida su clasificación y si procede la indexación. Entre otras cosas accede también a css, javascript etc…
Dato curioso: El primer rastreador fue el World Wide Web Wander y apareció en 1993
Aquí os dejo una lista de los crawlers de google:
https://support.google.com/webmasters/answer/1061943?hl=es
Caffeine: El es el indexador que se lanzó en 2010 . Lo que sea que rastree Googlebot será indexado por Caffeine y ese índice es donde Google elige las páginas web para puntuarlas. Pues WRS es un subsistema de Caffeine, muchos confunden bastante estos puntos, dentro de caffeine hay mas algoritmos, como el famoso PR que se sigue usando o el de canonicals. Aclarado esto veamos que pasa con el WRS, que vas a estar leyendo ahora mucho sobre el porque hacia 4 años que no se actualizaba.
¿Qué diferencia hay entre Renderizar solo HTML sin JS a con JS?
¿Qué sucede si solo encuentra html?
- 1. Googlebot descarga el archivo HTML sin procesar de su página web.
- 2. Googlebot pasa el archivo HTML a Caffeine para extraer todos los enlaces y metadatos.
- 3. Googlebot continúa rastreando todos los enlaces descubiertos.
- 4. El contenido extraído es indexado por Caffeine y utilizado para la clasificación.
¿Qué sucede si encuentra JS?
- 1. Se descargan archivos HTML.
- 2. Los datos CSS y JavaScript se descargarán en paralelo.
- 3. Se utiliza WRS (Web Rendering Service) (parte de Google Caffeine) para ejecutar JS.
- 4. WRS renderiza todos los archivos.
- 5. Ahora Google Caffeine puede indexar el contenido si es necesario.
- 6. Y en ese momento es cuando Googlebot puede rastrear nuevos enlaces.
Aquí vemos las 2 olas de indexación explicado en Imagen
¿Que significa que WRS se basaba en chrome 41?
Desde 2015 google basaba su WRS en chrome 41, el cual no soportaba bastantes cosas de html5,css3 aquí podíamos ver que soportaba y qué no:
http://caniuse.com/#compare=chrome+41
Pues estaba limitado a lo que esa versión del navegador soportaba y sus características. Habrás escuchado que Google le cuesta renderizar Javascript, para que te hagas una idea el chrome que solemos usar es la versión 72-74, imagínate la de nuevas funciones y diferencias que hay aproximadamente unas 900.
¿Qué limitaciones reales había o hay?
Pues teniendo en cuenta que se basaba en un chrome antiguo, los datos de almacenamiento local y de sesión y cookies http se borran entre una carga de página y otra, Web Sockets, WebGL, WebVR, IndexedDB y WebSQL no están soportados, aceptaba hasta ES5, WRS rechaza las solicitudes de permisos que dependan del usuario ( de ahí el famoso onclic y «ofuscaciones»), etc…
Google acaba de actualizar WRS basado en Chrome 74
Bueno y no solo eso también ha dicho que lo va estar actualizando constantemente no cada 4 años jeje, de primeras ahora casi todo lo nuevo es que acepta ECMAScript (ES6), ojo que de Bing, y otros buscadores o rastreadores como de redes sociales sean capaces de interpretar la sintaxis de ES6. No obstante tampoco me aventuraría a nada, antes hay que testear bastantes cosas, y lo de siempre con Google, coge las cosas con pinzas. Que ya me veo a los amantes de React, Angular, Vue, Svelte 3, y vanilla aplaudiendo.
Tampoco sabemos muy a ciencia cierta que otras cosas han cambiado, si te puedo decir que a día de hoy desde el 7 de agosto se actualizó la mayoría de herramientas de prueba para que usen el «Evergreen Chromium Renderer» y que donde antes algunas cosas no se renderizaban ahora si.
El cambio afectará la representación dentro de las siguientes herramientas:
- Herramienta de inspección de URL de Search Console
- Prueba para dispositivos móviles
- Prueba de resultados enriquecidos
- Prueba de AMP
Por ahora en los logs que tengo acceso sigue usando el mismo user agent y en las herramientas que mencioné también (Día 14 de mayo 2019)
Si no te aclaras o prefieres que yo me encargue de tu negocio siempre puedes pedirme un presupuesto seo. Aquí tienes todos mis servicios de posicionamiento SEO:
- Consultor Seo en Andalucia
- Posicionamiento SEO Cadiz
- Consultor SEO en Jerez
- Posicionamiento SEO El Puerto de Santa Maria
¿Quiere decir que ya no hay 2 olas de indexación?
Ojalá pero no jeje, entre el rastreo y la representación del javascript se sigue realizando en procesos separados.
¿Ha cambiado el onclic y la ofuscación de enlaces?
Para resolver esta pregunta he creado el siguiente experimento sobre si rastrea google el onclic
Conforme sepa más datos seguiré actualizando el post.
- Entrega de premios vocación digital Raiola - 14 de julio de 2024
- Overtracking: fácil de usar, simple y potente. Así es la alternativa a GA4 - 20 de septiembre de 2023
- Analizo la patente de Google US7716225B1 (2010) – Clasificación de documentos basada en atributos de usuario - 16 de abril de 2023
Buen post Alvaro! A meter caña de nuevo al blog 😛
Gracias mike!! me alegro que te pasaras crack jeje seguro ya vuelvo a las andadas 😉
Muy Bueno el post Alvaro!
De lo primero que se saca con respecto a esta actualización de Google. Se nota que todavía falta mucha más información por descubrir de todo esto, así como realizar pruebas para ver hasta que punto ha cambiado la indexación y renderizado con las nuevas características que han incorporado.
Espero que lo sigas actualizando y volver a ver actividad en este blog, que es de lo mejorcito!
Un abrazo!
Gracias crack!! la verdad es que tengo varios test pendientes espero pronto subirlos y actualizar el post y poner nuevos. Un abrazo estaré ya en activo con el blog jejeje
Mis dieses !!!
Esto tengo que masticarlo 30 veces para entenderlo jaja.. Excelente post
Muy bueno espero el exprimento
Jeje ya esta en marcha Josemi https://alvarorondon.com/experimento-sigue-respetando-el-onclic-y-las-ofuscaciones/
Gran post, y suerte con el blog, espero que jamás caigas en la tentación de vender humo.
jajaja eso nunca tio 😉 ya lo sabes de sobra y gracias por el comentario