En el artículo de hoy vamos a mencionar algunos “trucos” SEO que no son tan comunes en una estrategia SEO pero que dan unos resultados increíbles en el posicionamiento de keywords.
Normalmente redactamos un artículo y lo optimizamos para SEO pero una vez hecho esto olvidamos el artículo esperando que se mantenga siempre en los primeros puestos de Google pero es muy probable que con el paso del tiempo ese contenido se vea desactualizado y no responda a lo que el usuario busca, ocasionando un alto rebote. Para evitar un porcentaje de rebote alto debemos actualizar el contenido para recuperar las posiciones perdidas en Google pero para eso es recomendable que el contenido cumpla con tres parámetros:
Estos 3 parámetros conseguirán que el usuario este más tiempo en tu página y navegue por tu página, lo que traducido a términos de SEO significa que el porcentaje de rebote disminuya y la experiencia de usuario mejore, con lo importante que esto es para Google quien nos compensará aupándonos en los motores de búsqueda.
Nos referimos por contenido evergreen a ese contenido que perdura en el tiempo, es decir, que pase el tiempo que pase va a seguir respondiendo a las dudas del usuario. En relación a este aspecto del contenido, no hace mucho tiempo se puso de moda modificar la fecha de los artículos a una fecha reciente para que Google tomara el contenido como reciente y subieran las Serp. Pero algo todavía mejor que actualizar la fecha es eliminarla, si no mostramos la fecha de publicación Google directamente entenderá que se trata de contenido Evergreen y todavía nos lo posicionará mejor que utilizando ese “truquillo” de actualizar la fecha que realmente nos servirá de poco.
En los orígenes del SEO era habitual que los contenidos repitieran una y otra vez la palabra clave aunque este texto careciera de sentido, esto era debido a que la mayoría de búsquedas respondían a términos como “imprenta Zaragoza”, “Pintor Barcelona”,»posicionamiento web Sevilla«, etc… pero actualmente los motores de búsqueda se han vuelto más inteligentes y las búsquedas ya no se realizan de esa misma manera por lo que debemos tratar de responder de manera correcta a la pregunta exacta que realicen los usuarios.
Actualmente las búsquedas son más detalladas, un ejemplo puede ser “diseño de pagina web barata en el centro de Zaragoza” o “Cómo poner audio en After Effects”, estos dos casos son ejemplos de búsquedas que se realizan actualmente, por lo que debemos de dar una respuesta concreta a lo que se está buscando. Nuestro contenido tiene que responder a esa pregunta y para ello debemos averiguar en primera instancia que es lo que están preguntando, que tipo de usuario lo pregunta y que palabras clave utilizan.
Para averiguar cómo los usuarios buscan acerca de un tema podemos utilizar herramientas como el planificador de palabras clave de Google Adwords o Answer The Public,.
Una vez sepamos eso nos será más fácil realizar un contenido que retenga al usuario para generar una experiencia de usuario más positiva, así Google verá que es contenido de valor y nos aupará a las primeras posiciones.
Una vez hecho este paso más adelante podremos comprobar cuales son las páginas que más tráfico llevan a nuestra web, y seguramente coincidan con esas páginas a las que hemos dado prioridad en el enlazado interno.
Aprovecha esas páginas importante para atacar tanto términos long tail como short tail, para ello deberás realizar un keywords search en el que averigües cuales son los términos que más te interesan.
Para aprovechar ese tiempo que Google destina a nuestra web debemos optimizar al máximo su tiempo, para ello debemos optimizar aspectos como el tiempo de carga eliminando códigos de respuesta como el 404 o las redirecciones 301, debemos conseguir que todos los tiempos de respuesta sean 200.
También debemos bloquear páginas que no aportan ningún tipo de valor como las páginas de aviso legal, cookies, el carrito de compra, login, etc… Este tipo de páginas debemos bloquear mediante el robots.txt para evitar ni si quiera que entre en la web y derroche tiempo en ellas. Las páginas canonical también debemos incluirlas en el robots.txt, puesto que no son páginas que queramos posicionar, y de esta forma evitamos “perder” tiempo en ellas.
Finalmente, dentro de este trabajo de Crawl Budget debemos analizar los logs, es decir, saber cuánto tiempo está el robot de Google en cada página, a que páginas se dirige, etc… de esta forma obtenemos la mayor información posible y podemos optimizar ese rastreo.
Las redes sociales se han convertido en el epicentro de nuestras vidas, tanto personales como…
El concepto de influencer va evolucionando según progresan las redes sociales y su combinación con…
Uno de los cambios más recientes en posicionamiento SEO que impactarán significativamente en la forma…
En el mundo del posicionamiento web, hay numerosos factores que influyen en cómo se clasifican…
¿Has escuchado hablar sobre el Consent Mode v2? ¿Sabes lo que es? Te adelantamos que…
En 2024, España ha dado un paso significativo en la regulación de las cookies online,…