En ocasiones, a los SEO se nos acusa de secretismo y de no querer compartir conocimiento. Cualquiera que haya participado es mis cursos de SEO, ha comprobado que esa filosofía no va conmigo.
La mejor forma de recibir es dar. Hoy me toca aportar. Si quieres aprender a hacer una auditoria SEO y te gusta la NBA, sigue leyendo.
Me encanta la NBA, y mi principal fuente de noticias NBA es NBAmaniacs.com. (sí, el anchor text, no es casualidad)
Me gusta el estilo de sus artículos, su sorprendente frecuencia de publicación, los vídeos de Drafteados y la comunidad que generan los comentarios.
Allá por 2013 colaboré con el crowfounding y mi nombre aparece en la web con un enlace a mi antiguo Twitter (lo peor que le puede pasar a un SEO, lo sé).
Hoy me toca aportar, audito la web y propongo mejoras SEO para aumentar el tráfico desde buscadores y aumentar páginas vistas.
Pretendo ser totalmente constructivo. No he contactado con ellos y desconozco como gestionan el posicionamiento.
No busco que me contraten, simplemente quiero aportar para que sigan contándome los entresijos de la NBA. Y de paso me animo a escribir tras una larga sequía.
Habitualmente hago auditorias contando con acceso a Analytics y Search Console. Hoy lo haremos con los datos públicos de su web. Allá vamos.
Esto es lo que te espera
Indice de visibilidad de Sistrix
No esta mal, aunque creo que NBAmanic.com puede aspirar a 1 y mucho más. Fijaros la diferencia entren PC y mobile. Sin haber visto Analytics, me atrevo a decir que la tasa de rebote de móvil es mayor que la de PC. Es una pagina responsive pero me ha pasado varias veces que la publicidad me dificulta o incluso impide acceder a la página. Habría que revisar eso.
La evolución es interesante ¿qué paso en 2014? Ya da igual. Centrémonos en revertir la última tendencia.
En esta gráfica de Sistrix vemos que todavía se están recuperando la de migración de http a https. Lo conseguiremos :-)
Posicionamiento de palabras clave
Los chicos de NBAmanics están haciendo un buen trabajo SEO. Tienen 3604 keywords posicionadas, muchas de ellas con términos genéricos de alto tráfico.
Según esta gráfica de Semrush, NBAmaniacs.com está a las puertas de dar un salto el posicionamiento. Tienen un gran potencial ya que en la segunda página de Google (esa que nadie visita) hay un grupo amplio de palabras clave esperando pasar a la página ganadora.
Rastreo e Indexación
Recientemente NBAmaniacs ha cumplido 10 años, esos son muchos artículos. Screaming Frog detecta 76.433 URL diferentes de las cuales 49.161 son archivos html. Veremos que el número de URL no corresponde con el total de páginas accesibles de la web. El rastreo no miente pero oculta una verdad que supone la primera propuesta de mejora.
El 4,64% de estas URL son redirecciones (3211), es decir, enlaces internos que apuntan a URL que a su vez llevan a otra página. Para el usuario es transparente pero para el robot de Google son paradas extra en sus rastreo para una única página. A eso se le suma 697 errores 404 (página no encontrada) que equivalen a un callejón sin salida para la araña. No hay que culpar a nadie ya que podríamos considerarlos como achaques de la edad de la web, aparecen al acumular años si no somos muy meticulosos. Toca hacer chequeo.
Estos son los datos de «Response Codes» que nos da Screaming Frog:
All (69277) (100.00%)
Blocked by Robots.txt (179) (0.26%)
Blocked Resource (0) (0,00%)
No Response (152) (0,22%)
Success (2xx) (65027) (93,87%)
Redirection (3xx) (3211) (4,64%)
Redirection (JavaScript) (0) (0,00%)
Redirection (Meta Refresh) (0) (0,00%)
Client Error (4xx) (697) (1,01%)
Server Error (5xx) (11) (0,02%)
Optimizando el Crawl Budget. Menos cantidad, más calidad
Los recursos de Google son limitados o al menos no esta dispuesto a malgastarlos en tu web. Por ello hay que optimizar el Crawl budget y Craw rate (cuota de rastreo) que determinará cuántas páginas rastreará y con qué frecuencia. En páginas tan grandes es muy conveniente dedicar tiempo a esta optimización.
La explicación sobre este tema y cómo solucionarlo lo hablamos en este post:
SEO y WordPress: optimizar rastreo de Googlebot. WordCamp Bilbao
Mi recomendación sería dar prioridad a arreglar esos 404 ya que además del rastreo afecta negativamente a la «experiencia de usuario», el relativamente nuevo gran factor SEO. Es un trabajo arduo, como atacar defendido por Kawhi Leonard, pero compensa.
Por otro lado, conviene deshacer todas las redirecciones que surjan de un enlace interno. Esto es una tarea aun más larga y tediosa. Tendrán que valorar si merece la pena. En mi opinión es conveniente pero hay otros arreglos mas prioritarios.
Google no solo valorará la cantidad sino que también analiza la calidad de los textos en busca de contenido duplicado (copiado de otras webs o repetido en la misma página) o contenido débil (escaso o que no aporte valor).
Un recurso a su alcance es restringir en el robots.txt todo aquello que no sea contenido de calidad. Actualmente ya tienen inhabilitadas varias secciones (actualidad, fichajes playoffs, premios…) aunque sospecho que es por tratarse de secciones antiguas que querían desindexar porque dejaron de existir. Apuesto que muchas de las redirecciones están relacionados con este episodio de la web.
Veamos opciones para restringir contenido débil en el robots.txt y mejorar la percepción de Google para que nos asigne mayor cuota de rastreo.
Le decimos a Google eso de Not in my house!
Archivos attachment
Empezamos haciendo Disallow a los attachment, esas páginas caprichosas que WordPress genera para cada imagen en cuanto te descuidas. Son puro contenido débil ya que solo es una imagen en un html o redirecciones a imágenes. Y no son pocos, hay 738 URL.
Lo malo es que Google tienen indexados 584. Con un Disallow: /attachment/ habremos ganado medio millar de oportunidades de mostrar contenidos de calidad.
Paginación clásica de WordPress
La eterna pregunta ¿debo indexar las paginaciones? No hay una respuesta mágica pero cuando tienes 10.487 URL de paginación merece la pena estudiarlo.
En mi opinión en NBAmaniacs hay que restringir muchas de ellas para no incurrir en contenido duplicado. No todas, por supuesto porque debemos garantizar que Googlebot llegue a todas las páginas que nos interesen independientemente de su profundidad.
Propongo detectar aquellas paginaciones que se solapen y listen artículos comunes.
Por ejemplo podemos capar las páginaciones (de la 2ª en adelante) de la agrupación «Author». Son 1.547 URL.
Ejemplo: https://www.nbamaniacs.com/author/sergioandres/page/2/
Dejamos indexar la primera para que cada autor tenga su homenaje en Google. Se lo merecen :-)
Lo interesante es que el usuario ni ve, ni accede a las paginaciones porque la web carga mediante Ajax los siguientes artículos. Pero por detrás, en el código están los enlaces a /page/n. Y Google los sigue, por supuesto. De hecho ha indexado 4.150 URL.
Vista previa (preview)
Las URL tipo preview corresponden a páginas temporales que muestran una vista previa de la web. No debería enlazarse en ningún caso. Va a suponer una mejora minúscula y no afecta a la experiencia de usuario pero es bueno detectarlo y corregirlo. Os dejo un ejemplo:
Contenido Evergreen
NBAmaniacs se caracteriza por su actualidad, nos informa día a día de las noticias de la NBA. Hacen predicciones que serán verificados en poco tiempo. Y por eso molan.
Casi todo su contenido es efímero y deja de ser relevante en poco tiempo. Esto dificulta la estrategia SEO ya que no tienen sentido trabajar para posicionar páginas que no serán de interés en poco tiempo.
Una de las claves es potenciar el Contenido evergreen.
Hablamos de aquel contenido que mantiene su valor en el tiempo y perdura siendo relevante para los lectores tiempo después de haber sido publicado.
Parece que ya son conscientes porque en su «Destacamos» vemos buenos ejemplos. ¡Bien jugado NBAmaniacos!
Estos son los primeros contenidos que hay mimar en SEO on-page. Cuidar sus titles, descriptions, h1, h2, volumen de contenido. Por otro lado, esos artículos deberían ser el centro de una estrategia de enlazado interno por la que deben recibir enlaces de los nuevos artículos de manera sistemática.
Ya que NBamaniacs usan el plugin SEO by Yoast les recomiendo que marque estos post evergreen como «contenido esencial o cornerstone«. La idea eres que los redactores los tengan presentes para incluir enlaces. Podríamos pensar que al incluir «Destacamos»en el widget lateral en todas las páginas es suficiente. No olvidemos que Google valora los enlaces en función de dónde estén y les dará más valor si lo encuentra en el texto principal.
Contenido débil
Hay muchos ejemplos de contenido débil o páginas que carecen de contenido suficiente como para ser relevantes ante Google. La propia estructura de WordPress es responsable de muchos de estas páginas enclenques. Propongo detectarlas e ir restringiéndolas en elrobots.txt.
Algunas páginas utilizan parámetros y apenas cambia su contenido. Ademas del robot, se puede usar Search Console para indicar a Google cómo debe actuar ante estos parámetros.
https://www.nbamaniacs.com/resultados/?game=257910
https://www.nbamaniacs.com/?attachment_id=23669
WPO – Velocidad de carga
NBAmaniacs.com tienen bien gestionada muchos aspectos de WPO. Las imágenes están optimizadas, tienen habilitada la compresión, han minificado el html, css y java script y parece que el servidor responde bien. Aun así, según Google Page Speed insight la velocidad de carga en móvil admite mejoras. Por ejemplo se podría optimizar la caché del navegador.
Conclusión auditoría SEO
Podría analizar muchas más cosas pero es un buen punto de partida. En resumen propongo dedicar tiempo al rastreo e indexación para conseguir que Google encuentre solo lo que NBAmanics quiera posicionar realmente, dando prioridad al contenido de calidad y al evergreeen.
Espero que les sea de ayuda y haber podido aportar mi granito de arena a este gran proyecto. Le deseo mucha suerte. Os invito a todos los que os gusta la NBA que visitéis su página y forméis parte de su comunidad.
Gran post y gran profesor. ¡Al fin encontraste tiempo para bloguear!
Gracias Joseba. Había olvidado lo bien que me siento cuando publico. A ver si aprendo.