Listado de la etiqueta: algoritmo google

El 28 de mayo de 2024, se filtraron más de 2,500 páginas de documentación interna de la API de Google, revelando cerca de 14,000 atributos o funciones del algoritmo de Google. Este evento tiene el potencial de cambiar drásticamente el campo del SEO.

Algunos datos relevantes …

El 5 de mayo, Rand Fishkin, un renombrado experto en SEO y fundador de Moz y SparkToro, fue contactado por una fuente anónima que aseguraba tener acceso a una vasta filtración de documentación API de Google. Fishkin relató toda la historia en su blog, describiéndola como algo salido de una película de espías.

Los documentos filtrados, autenticados por ex empleados de Google, incluían detalles sobre las operaciones de búsqueda de la compañía. Durante una videollamada, el filtrador mostró a Fishkin más de 2,500 páginas de documentación, subidas a GitHub el 27 de marzo de 2024 y eliminadas el 7 de mayo de 2024. Aunque no especificaban el peso de cada elemento en el algoritmo, los documentos revelaban detalles sobre los datos recopilados por Google, incluyendo hasta 14,000 atributos o funciones del algoritmo.

Rand Fishkin verificó la autenticidad de los documentos contactando a ex empleados de Google. Tres ex-Google respondieron: uno no se sintió cómodo revisando la documentación, y los otros dos confirmaron que los documentos parecían legítimos. Fishkin también solicitó ayuda a Mike King, fundador de iPullRank, quien confirmó la legitimidad de los documentos y la riqueza de información sobre el funcionamiento interno de Google.

Principales revelaciones sobre el algoritmo de Google …

Autoridad del dominio

Google utiliza una métrica denominada «site Authority,» similar a la conocida «autoridad de dominio». Esta métrica confirma que la autoridad de un sitio web es un componente crucial en el algoritmo de búsqueda.

Importancia de los datos de clics

Los datos de clics juegan un papel significativo en los rankings, con sistemas como Nav Boost que ajustan los resultados de búsqueda en función de estos datos. Google filtra y mide la duración de los clics para evaluar la calidad de las visitas.

Sandbox de Google

El sandbox es un período inicial que deben atravesar los sitios web nuevos o recientemente relanzados, durante el cual su visibilidad en los resultados de búsqueda está restringida. Este sistema ayuda a prevenir el spam y a garantizar la relevancia de los resultados de búsqueda.

Google EWOK

EWOK es una plataforma utilizada por Google para evaluar la calidad de los sitios web. Los datos y puntuaciones generados por los evaluadores de calidad de EWOK se integran directamente en el sistema de búsqueda, sugiriendo que las evaluaciones humanas pueden influir en los resultados de búsqueda.

Importancia de los enlaces

Los documentos refutan la idea de que los enlaces tengan poca importancia en la clasificación de resultados. Google estratifica su índice en niveles, y los enlaces de páginas «frescas» y bien posicionadas tienen más valor.

El EEAT y Chrome en el ranking

Google almacena información sobre los autores de un documento y utiliza vistas de Chrome para medir la calidad de las páginas. La documentación también menciona un módulo relacionado con Chrome para la generación de sitelinks.

marketing de contenidos Otros hallazgos notables

  • Google considera un número máximo de tokens por documento, reforzando la importancia de colocar el contenido relevante al inicio.
  • El tamaño de la fuente y el texto ancla de los enlaces son factores considerados por Google.
  • Un parámetro llamado Original Content Score sugiere que el contenido breve se puntúa por su originalidad.
  • Google valora la coincidencia entre el título de la página y la consulta de búsqueda.
  • Los sitios enfocados en vídeo reciben un tratamiento diferente en los algoritmos de Google.
  • Los sitios pequeños y personales pueden ser tratados de forma distinta en los resultados de búsqueda.

La filtración proporciona una visión sin precedentes del funcionamiento interno del algoritmo de Google, ofreciendo una oportunidad única para entender y adaptar estrategias de SEO de manera más efectiva.

 

Siempre que me reúno con un cliente para planificar su web, sale la frase fatídica en algún momento de…”quiero una web sencilla, con poco contenido”. Entonces yo les pregunto, “¿y exactamente para qué quieres la web? Porque si lo que quieres es que te encuentren los que no te conocen, ¿dime tú cómo lo hacemos? O hacemos una web robusta, o nos olvidamos del SEO.”  Y escribo hoy este artículo, para aquellos que no me creen a mí, por lo menos que crean lo que dice Google.

 

Ahí va, una de #SEO

A finales del 2015 Google lanzó Pautas de evaluación de calidad de los sitios web un manual de 160 páginas. Con él aprendimos que el contenido era uno de los factores más importantes que determinaban la calidad de una página, y por ende su posicionamiento en los resultados de búsqueda.

En agosto de 2018, aparece en escena Google EAT (Expertise, Authoritativeness, Trustworthiness), con este nuevo algoritmo, Google explica los requisitos y recomendaciones que utiliza el robot para evaluar la relevancia social  y clasificar contenidos en su ranking de resultados. Google nos viene a decir lo siguiente: valoraremos que tu sitio es de calidad si eres un experto en tu campo, tienes autoridad digital para demostrarlo y ofreces  confianza suficiente al usuario. Es una excelente manera de trabajar el SEO de tu web.

 

¿Para qué nace Google EAT?

El objetivo final de Google EAT es ayudar a los usuarios en conseguir búsquedas más relevantes, por tanto,  el propósito del marketing de contenidos será crear el contenido que la audiencia busca. Por eso, lo primero que hemos de hacer antes de lanzarnos a diseñar la web será un análisis de palabras clave, no? Veamos qué buscan los internautas.

Google lleva años trabajando sus actualizaciones y cambios en sus algoritmos para poner el contenido más útil y preciso en los primeros resultados de búsqueda. Por ello, deberíamos de pensar que el contenido de nuestra web ha de servir de ayuda al usuario. De hecho, Google enumeró algunas opciones que todas las webs deberían incluir para ser consideradas útiles para Google:

  • Opciones para compartir información sobre un tema.
  • Opciones para compartir información personal o social.
  • Opciones para compartir fotos, videos u otras formas de medios.
  • Opciones para expresar una opinión o punto de vista.
  • Opciones para entretener.
  • Opciones para vender productos o servicios.
  • Opciones que permitan a los usuarios publicar preguntas para que otros usuarios respondan.
  • Opciones para permitir a los usuarios compartir archivos o descargar software

Estos son algunos ejemplos que Google nos recomienda tener en nuestra web.

 

Puntos fuertes de Google EAT:

Esencialmente, Google EAT determina el valor de un sitio web. Los evaluadores de Google, además de revisar que el sitio web cumpla los estándares óptimos,   analizan si el usuario está teniendo una buena experiencia al navegar por la web o no. Esto lo saben por los cometarios que dejan, las recomendaciones que hacen y las veces que comparten el contenido. Si el contenido de un sitio web arroja mucha interacción Google lo valorará como un sitio de buena calidad y alto nivel de EAT.

 

Experiencia: de tu web se debería deducir que eres un experto en tu campo, y esto está muy relacionado con la autoría del contenido. Es bueno que los autores firmen los textos y que Google detecte, que estos autores tengan buena reputación online. Demostrar la experiencia de los autores es especialmente importante cuando se trata de sitios webs de salud o finanzas, por ejemplo, porque el usuario necesita saber que el contenido que consumen es cierto y veraz.

Conclusión, es muy importante incluir los nombres de los autores en todo el contenido, especialmente en los artículos del blog. Pero es necesario entender muy bien quién es responsable de un sitio web para una buena evaluación de EAT. La información sobre el autor debe estar  siempre disponible para evaluar si es un experto adecuado para el tema en cuestión. Si la información del autor no está disponible o es difícil de encontrar, esto podría afectar a la puntuación de Google EAT.

En temas de comercio electrónico, lo importante sería que en las páginas de productos, debería estar muy a mano el soporte al cliente y la información de contacto comercial.

 

Autoridad: deberíamos de demostrar gracias al contenido que publicamos que somos autores experimentados. Para ello, Google investigará nuestras redes sociales, las reseñas dejadas por los usuarios, nuestra participación en foros por ejemplo.

Asimismo, deberíamos de pensar en invertir en marca personal y en caso de las empresas, en branding. Una buena reputación online es vital para que Google nos puntúe de manera positiva  en la calidad del sitio. Por eso, aquellas empresas que tengan más seguidores en redes sociales, más reseñas en sitios de opiniones, tendrán más oportunidad de ser bien valoradas por Google que aquellas que no las tengan.

Google no dice que vaya a puntuarte mal si no tienes apenas reputación online, lo que sí dice es que los competidores que tengan trabajada su reputación online estarán por encima de ti en los resultados de búsquedas.

Conclusiones: hemos de mostrar siempre las credenciales del escritor ¿cómo?

  • Agregando el título del trabajo del autor a su autoría
  • Incluyendo una breve biografía al principio o al final del artículo
  • Enlazando a su sitio web profesional o a una biografía completa tipo Linkedin, o enlazando dentro de nuestro sitio web aquella página en la que se hable de esta persona.

 

Confianza: hemos de demostrar a través de nuestra web que el usuario puede confiar que el contenido que expone es cierto y legal. Esto se vuelve imprescindible cuando hablamos de un ecommerce, donde los usuarios han de dar su tarjeta de crédito si quieren realizar una compra. Como poco, se ha de instalar el certificado SSL ya que al menos el 70% de los resultados de la primera página de Google lo copan las webs que tienen SSL.

En todo momento hemos de hacer que los usuarios se sientan seguros, sobre todo cuando se trata de un ecommerce. Hemos de asegurar a nuestros clientes que su información financiera y personal está segura. ¿Qué podemos hacer para conseguirlo?

  • Utilizar una dirección «https»
  • Mostrar un candado y clave en la barra de URL
  • Solicitar que los usuarios creen contraseñas complejas.
  • Incluir cualquier certificado relevante en nuesto sitio web

 

Actualización de Google EAT a Google EEAT

Hacia finales de 2022, Google actualizó tres áreas clave del algoritmo que utiliza para juzgar dónde clasifica los sitios web en las páginas de resultados de los motores de búsqueda. La actualización de contenido útil, la actualización de enlaces no deseados y E-A-T, que es ahora conocido como E-E-A-T.

E-E-A-T significa Experiencia, Conocimiento, Autoridad y Confiabilidad, y estas son las cuatro cualidades que tu marca debe tener si quieres tener la mayor posibilidad de obtener una buena clasificación y brindar la mejor experiencia a tu audiencia.

 

 

Hoy te voy a contar qué pautas debes seguir para que el algoritmo de Google posicione mejor el contenido de tu página con respecto al de tus competidores.

Como ya sabéis, Google realiza actualizaciones principales de su algoritmo cada trimestre, y estas actualizaciones pueden hacer que el posicionamiento de tu web caiga o suba en los resultados de búsqueda. Por supuesto, esto está directamente relacionado con el número de clics que recibirá tu sitio web y por tanto, en la subida o bajada de ventas / leads. Google realizó más de 3.200 cambios sólo el año pasado, pero los cambios en el algoritmo de búsqueda principal ocurren sólo varias veces al año, las grandes actualizaciones principales se dan una vez por trimestre.

Google trabaja constantemente para que los resultados de búsqueda de los usuarios sean más relevantes y útiles, por ello debemos tener muy claro que los contenidos de nuestra web tienen que aportar valor y ser de calidad.

 

Directrices de Google para evaluar el contenido de tu web

La pregunta del millón es ¿qué debo hacer para que mi sitio posicione mejor que el de la competencia en los resultados de búsqueda?. Google ya lo explicó en 2011 con su algoritmo Panda: «Sugerimos centrarse en garantizar que ofrezca el mejor contenido posible. Eso es lo que nuestros algoritmos buscan recompensar”.

Google sugirió una serie de preguntas para evaluar la calidad de nuestro contenido web:

  • ¿El contenido proporciona información original, informes, investigación o análisis?
  • ¿El contenido proporciona una descripción sustancial, completa o completa del tema?
  • ¿El contenido proporciona un análisis perspicaz o información interesante que es más que obvio?
  • Si el contenido se basa en otras fuentes, ¿evita simplemente copiar o reescribir esas fuentes y, en cambio, proporciona un valor adicional y originalidad sustanciales?
  • ¿El título y / o título de la página proporciona un resumen descriptivo y útil del contenido?
  • ¿El título y / o título de la página evita ser de naturaleza exagerada o impactante?
  • ¿Es este el tipo de página que desea marcar, compartir con un amigo o recomendar?
  • ¿Esperaría ver este contenido en una revista impresa, una enciclopedia o un libro o hacer referencia a él?

 

Directrices de Google para valorar si el contenido de tu web es fiable

Otra de las pautas que Google puntúa para posicionar mejor un contenido, tiene que ver con la fiabilidad o confianza de que el contenido es cierto. Para ello propone que nos preguntemos:

  • ¿El contenido presenta información de una manera que haga que desee confiar en ella, como fuentes claras, evidencia de la experiencia involucrada, antecedentes sobre el autor o el sitio que la publica, como a través de enlaces a una página de autor o Acerca de un sitio?
  • Si investigó el sitio que produce el contenido, ¿saldría con la impresión de que es confiable o ampliamente reconocido como una autoridad en su tema?
  • ¿Este contenido está escrito por un experto o entusiasta que, de manera demostrable, conoce bien el tema?
  • ¿El contenido está libre de errores de hecho fácilmente verificables?
  • ¿Te sentirías cómodo confiando en este contenido para asuntos relacionados con tu dinero o tu vida?

De este tema hablamos más ampliamente del algoritmo en EAT en este post.

 

Directrices de Google en cuanto a la presentación del contenido.

Este punto está muy relacionado con la experiencia de usuario, ya que siempre es más agradable leer un texto bien redactado, ordenado y sin faltas de ortografía, que otro hecho sin ningún mimo. También relacionado con el algoritmo Fred, que en su día penalizó los sitios con mucha publicidad o llenos de enlaces. Google quiere que te preguntes lo siguiente:

  • ¿Está el contenido libre de problemas ortográficos o estilísticos?
  • ¿Se produjo bien el contenido, o parece descuidado o producido precipitadamente?
  • ¿El contenido se produce en masa o se subcontrata a un gran número de creadores, o se distribuye en una gran red de sitios, de modo que las páginas o los sitios individuales no reciben tanta atención o atención?
  • ¿El contenido tiene una cantidad excesiva de anuncios que distraen o interfieren con el contenido principal?
  • ¿El contenido se visualiza bien para dispositivos móviles cuando se ve en ellos?

 

Dicho esto, queda claro que Google sigue insistiendo en que mejoremos los contenidos de nuestra web para que la experiencia de usuario sea lo más satisfactoria posible. Si sigues pensando que quieres una web limpia y sin contenido porque los “humanos” no leemos, estás en tu derecho, pero así, jamás de los jamás saldrás en los primeros resultados de búsqueda en Google. ¡He dicho!

 

 (Fuente: Barry Schwartz)

Ha pasado casi una década desde que Google estableció un rumbo para mejorar la calidad de la búsqueda. Sigue ajustando y refinando su algoritmo 500-600 veces al año para proporcionar a sus usuarios los resultados de búsqueda más relevantes y de mejor calidad posibles.

Todas las Agencias SEO en Bilbao y en cualquier parte del mundo, luchamos para que nuestros clientes estén en primera página de Google con posicionamiento orgánico. Veamos qué hemos aprendido en esta última década:

 

SEO y Panda (año 2011)

La primera actualización que cambió el panorama de SEO para fue la actualización del algoritmo de Panda. El algoritmo penalizó a sitios con contenido de spam y de baja calidad.

Revisar en nuestro sitio web:
• Contenido duplicado (interno y externo)
• Relleno de palabras clave
• Páginas con poco contenido
• Spam generado por el usuario
• Contenido irrelevante

 

SEO y Penguin (año 2012)

Justo después de Panda, en 2012, Google lanzó otra actualización llamada Penguin que apuntaba a sitios de rango inferior con enlaces manipulables y spam. La cuestión es que los enlaces siempre han sido una de las señales de clasificación más potentes para los motores de búsqueda. Pero en el pasado, el algoritmo de Google no pudo determinar la calidad de los enlaces. Es por eso que durante muchos años los SERPs fueron más como un caos incontrolable. Los SEO simplemente compraban enlaces o utilizaban técnicas de spam para manipular los resultados de búsqueda. Todas estas prácticas fueron penalizadas por Penguin y ahora el algoritmo de Google trabaja en tiempo real comprobando cada enlace interno y externo. Al igual que Panda, Penguin ahora es parte del algoritmo central de Google.

Revisar en nuestro sitio web:
• Enlaces desde sitios spam
• Enlaces desde sitios tópicamente irrelevantes.
• Enlaces pagados
• Enlaces con anchor text demasiado optimizado

 

SEO y Exact Match Domain (año 2012)

Quizás sea una de las actualizaciones de Google de las que menos se ha hablado, que no viene a ser otra cosa que penalizar a los sitios web que tienen como dominio una palabra clave. Ahora bien, únicamente penalizará a aquellos dominios cuyo contenido sea de mala calidad y no corresponda a lo que se anuncia en el dominio. Fue una manera de eliminar a los sitios basura con dominios con coincidencia exacta de palabra clave en el dominio.

 

SEO,  Colibrí (año 2013) y  RankBrain (año 2015)

Justo después de que Google diera mejores resultados de búsqueda a los sitios web de mayor calidad en el contenido, comenzó a avanzar en hacia la comprensión de la intención de búsqueda. Es por eso que lanzó Hummingbird en 2013 y RankBrain en 2015. Ambas actualizaciones sirven para comprender mejor el significado de una determinada consulta, pero realizan diferentes funciones.

Básicamente, el propósito principal de Hummingbird es interpretar las consultas de búsqueda y proporcionar a los usuarios los resultados que coincidan mejor con sus intenciones. Anteriormente, Google solía mirar palabras separadas dentro de una consulta mientras se daba cuenta de qué es lo que un usuario desea. Con Hummingbird, estas son ahora la combinación de palabras y contexto que se toman en consideración.

Hablando de RankBrain, es un sistema de aprendizaje automático que ayuda a Google a procesar consultas desconocidas y únicas. Es una adición a Hummingbird que se basa en datos históricos y en el comportamiento anterior de los usuarios. En pocas palabras, RankBrain analiza las consultas por separado, los resultados de búsqueda que se entregan en respuesta a ellos y los resultados que los usuarios finalmente buscan. Luego trata de entender la lógica detrás de él para predecir el mejor resultado para consultas desconocidas.

En nuestra web debemos tener en cuidado con:
• Orientación por palabra clave de coincidencia exacta
• Lenguaje no natural
• Falta de características de relevancia específicas de la consulta

SEO, Pigeon (año 2014) y  Possum (año 2016)

Durante muchos años ha sido muy difícil que los resultados locales superen a los ordinarios. Eso era bastante injusto porque los resultados locales son mucho más relevantes cuando un usuario está buscando algo cercano. Es por eso que Google cambió el algoritomo para mejorar la calidad de los resultados de búsqueda locales y lanzó Pigeon en 2014 y Possum dos años después.

El objetivo principal de la actualización de Pigeon era crear una conexión más cercana entre el algoritmo de búsqueda local de Google y el principal. Así que ahora se toman en consideración los mismos factores de SEO al clasificar los resultados de búsqueda locales y no locales. Eso implicó un impulso considerable de los sitios de directorios locales. La actualización también creó vínculos mucho más estrechos entre la búsqueda web y la búsqueda en Google Map.

En 2016, Google cambió el panorama local de SEO una vez más con su actualización de Possum. Después de la actualización, Google comenzó a clasificar los resultados de búsqueda según la ubicación geográfica del buscador. Así que ahora el que más cerca está de la ubicación de la empresa, más posibilidades tiene de verla en los resultados de su búsqueda. Google también se volvió más sensible a la expresión exacta de una consulta. Ahora, incluso pequeños cambios en su consulta pueden resultar en resultados completamente diferentes.

A tener en cuenta para mejorar el posicionamiento SEO local:
• Configuración incorrecta de una página de Google My Business
• Inconsistencia NAP (Name, Address, and Phone Number)
• Falta de citas en directorios locales.
• Cuidado con compartir una dirección con un negocio similar.

 

SEO y Fred (año 2017)

Lo último que Google quiere es entregar sitios web que estén inundados de anuncios, una monetización agresiva y contenido de bajo valor. Lo que Google quiere es contenido útil para los usuarios. Por lo tanto, implementó la actualización de Fred, que tenía como objetivo penalizar los sitios que ofrecían pocos beneficios a los usuarios y se utilizaban principalmente para generar ingresos.

Esta actualización penaliza:
• Bajo contenido, contenido pobre.
• Anuncios excesivos
• Monetización agresiva
• Mala experiencia de usuarios

 

SEO,  Mobilegeddon (año 2015) y la  indexación de Mobile-first (año 2016)

La obsesión de Google por la compatibilidad con dispositivos móviles comenzó con la actualización para dispositivos móviles (también conocida como Mobilegeddon) en 2015. La misión de esta actualización era actualizar los sitios web que estaban optimizados para dispositivos móviles en la búsqueda móvil.

Después de Mobilegeddon, Google comenzó a desplegar la indexación de dispositivos móviles, que tenía como objetivo indexar páginas en smartphones antes de las páginas de escritorio. Básicamente, la primera indexación móvil significa que la versión móvil de una página se usará para la indexación y la clasificación para ayudar a los usuarios móviles a encontrar lo que buscan. Y aunque en un principio se amenazó con dejar fuera de las búsquedas móviles a los sitios web que no fueran responsive, la realidad es que esto nunca sucedió.

 

SEO y Page Speed (año 2018)

La actualización más reciente de Google, es la actualización de Page Speed. Según esta actualización, la velocidad de la página finalmente se ha convertido en un factor de clasificación para dispositivos móviles. Esto significa que los sitios más rápidos ahora tienen más posibilidades de dominar los resultados de búsqueda.

Llevamos casi una década aprendiendo y cada vez somos más los que intentamos agradar a Google, así que las cosas se nos ponen difíciles, pero no hemos de desesperar. Hacer bien los deberes siempre nos protege de los grandes cambios. Si buscas una agencia SEO en Bilbao quizás podamos ayudarte. Envíanos un mail y valoraremos tu caso hola@irudigital.com

Agradecemos a SEO PowerSuite el compartir esta información.

Si tenemos un proyecto web al que estamos mimando dándole buen SEO, habremos superado sin problemas todos los cambios de algoritmos de Google hasta fecha. Habremos superado la prueba del contenido duplicado con Google Panda, la de la compra de enlaces con Google Penguin, y la del marketing de contenidos con Google Hummingbird.

Ahora nos llega un nuevo cambio en el algoritmo de Google con una paloma, es Google Pigeon, que afecta sobre todo, no a la web, sino más bien a la estrategia digital de enlaces que hayamos puesto en marcha (hablamos de los factores offpage). La paloma de Google, dicen las malas lenguas que por presiones de Yelp, va a mejorar las búsquedas locales, arrojando en los primeros resultados a todas aquellas webs que tengan bien trabajada esta estrategia. Leer más

Hace ya un par de meses que el nuevo motor de búsqueda de Google, el «Colibrí» está ya funcionando. Aunque apenas hemos notado cambios, se supone que iba a afectar al 90% de las búsquedas. Mientras que las anteriores modificaciones del algoritmo penalizaban especialmente el contenido duplicado y la creación artificial de enlaces a nuestra web, ahora Google, nos indica la dirección en la que hemos de trabajar.

Por un lado, el nuevo Colibrí refuerza el motor de búsqueda para hacerlo más semántico, más acordes con las búsquedas más maduras de los usuarios (frases más largas o complejas). En este sentido, cobra especial relevancia trabajar el long tail de nuestros sitios web, no quedarnos en tres o cuatro palabras clave, sino generar contenido específico para términos mucho más concretos.

Leer más