En los videos anteriores hablamos de dos de las disciplinas más importantes dentro del SEO.
Por una parte, el texto y como este ayuda a Google Bot a entender qué queremos posicionar con cada url, y por otra parte, los enlaces, y como gracias al enlazado externo dotamos de autoridad a nuestro dominio, y mediante técnicas de enlazado interno, derivamos autoridad a determinados puntos de nuestra web.
Pues bien, cuando estas dos facetas se trabajan conjuntamente, crean una tercera, ya que el contenido que aparece en determinadas urls y cómo enlazamos estas páginas entre si, forman un todo.
A esto, le denominaremos, contexto.
El contexto, según Wikipedia, es el conjunto de circunstancias que se producen alrededor de un evento.
Llevando esto al SEO, entendemos como contexto todo lo que rodea a una keyword objetivo:
- Enlaces internos entrantes desde otras urls
- El contenido de esas urls
- Enlaces salientes a otras urls
- Los anchor utilizados
- El PR de cada una de esas urls o dominios
En el paper que os enseñé en videos anteriores, se hace mención a cómo decidían antes si una url era válida para empezar a aparecer en el índice por una determinada consulta.
Antes era tan fácil como tener esa KW en puntos determinados de nuestro texto. Esto provocó que en un dominio se pudiese hablar de cualquier cosa y Google lo rankease.
Para que os hagáis una idea, podías posicionar una url hablando de zapatos y con el mismo dominio posicionar otra de coches, algo que hoy es impensable (salvo en contadas ocasiones) …
Hoy en día, lo que se hace es todo lo contrario. Con la entrada del NLP, Google es capaz de analizar textos de diferentes urls y evaluar las distancias y correlaciones que hay entre los términos que aparecen en determinadas matrices. Haciendo que Google sea capaz de analizar un dominio como un todo, siendo capaz de entender las agrupaciones de contenido basadas en topics o temáticas y permitiendo subdividir este contenido para aportar el contexto necesario a nuestro conjunto de KW principales.
A estas agrupaciones de contenido le llamamos silos o clúster.
A día de hoy dada la abundancia de páginas web que existen, la tematización es fundamental para hacer ver a Google que somos referentes en un determinado topic, y hablar alrededor de una KW objetivo nos ayudará a crear ese contexto tan necesario del que hablaba antes.
Entonces, lo que hay que hacer es claro, si Google quiere que creemos un contexto, simplemente debemos escribir mucho contenido alrededor de una determinada palabra clave y enlazarlo hacia él.
NO.
Cuando se practican técnicas como el ejemplo que he puesto antes (algo muy común en personas que no son seos, que tienen un ecommerce y han oído campanas sobre lo del contenido es el rey…) se tiende a escribir siempre sobre lo mismo y de una forma pobre.
En el seo, cada url debe tener un propósito de rankeo único. Es decir, cada una url, debe tener una intención de búsqueda. Si por ejemplo yo busco en Google zapatos rojos, zapatos granates o zapatos burdeos, obtengo diferentes urls de zalando basadas en microtopics, ya que a pesar que a priori, puedan ser zapatos muy similares, los usuarios que realizan estas variaciones de consulta, quieren encontrar urls diferentes.
Esto se debe a que zalando ha organizado su categoría de zapatos de mujer, por diferentes colores, y le ha indicado a Google qué tiene que posicionar en cada una de estas urls a través de un texto.
El conjunto de técnicas y estrategias que realizamos sobre un sitio web para que quede correctamente clusterizado se denomina arquitectura de la información. La arquitectura de la información pertenece a la arquitectura Informática, y dentro de este existen muchas vertientes algunas muy relevantes para nuestro trabajo como seos.
La arquitectura de la información, según Wikipedia, es la disciplina encargada del estudio, análisis, organización, disposición y estructuración de la información con la que estamos tratando.
En resumen, y llevándolo al SEO otra vez, la arquitectura de la información, son aquellas técnicas que utilizamos para hacer la navegación de nuestra web, fácil y lógica.
Y esto es lo que Google busca de nosotros, por una parte, generar una experiencia positiva en un usuario que ha confiado en este buscador para encontrar la web que estaba buscando, y por otra, ser capaces de entender de qué va nuestro site.
Como comentaba antes, generar contenido por generar contenido no tiene sentido, ya que acabamos cayendo en deficiencias como el thin content o las canibalizaciones.
En siguientes videos entraremos en el detalle de cómo Google es capaz de entender el contenido que tenemos en cada url (destripando todo su proceso de análisis).
Como comentábamos al principio, la conjunción de texto y enlaces forman la arquitectura de un site.
Google tiene dos formas de entender esta jerarquización de las urls y de los topics y subtopics.
La primera está basada enteramente en en crawleo y el cálculo el PR. Ya que almacenando qué páginas enlazan a que páginas, al final del crawleo, son capaces de entender cómo funciona un site y del contexto que rodea determinadas urls.
Como Google bien sabe, esto es problema. Ya que, si para poder entender completamente cómo funciona un site y poder tomar decisiones a la hora de rankear, Google debería crawlear el 100% de un site cada vez para poder evaluar de forma correcta. Esto en webs pequeñas no es mayor problema, pero imaginad por ejemplo, ElPaís.es, una web que tiene decenas de miles de urls y genera cientos de urls nuevas al día.
Para ello, se fomentó el uso y la estandarización de los breadcumbs o migas de pan.
Que son enlaces marcados con un lenguaje específico (como RDFA o Micro datos) para hacer entendible al usuario, en qué categoría o subcategoría se encuentra, pero sobre todo, sirven para jerarquizar el contenido de cara a los crawlers, haciendo que ya no sea necesario analizar un site entero para comprender su contexto y ordenando la web de una forma lógica y universal, haciendo que las últimas páginas enlacen a todos los elementos superiores de forma recursiva, es decir:
Que “zapatos rojos de tacón” enlazará a «Zapatos rojos», que enlazará a “Tipos de zapatos” que a su vez enlazará a “zapatos” que a su vez enlazará a “Moda”.
Esto cuando se generaliza en un dominio crea acumulaciones de PR muy grandes en los elementos principales de nuestra arquitectura de la información y gracias a los breadcumbs, indicamos el contenido relevante que se encontrará dentro de estas urls.
Si pensamos con lógica, esto lo correcto, si las webs se estructuran de conceptos más generales a los más específicos, acumulamos PR en puntos de nuestra web, preparando nuestro site para rankear las KW objetivo más generales y que por supuesto atraerán más tráfico.
El problema viene cuando entra en juego «el negocio» y mi cliente me dice que sí, que está muy bien posicionar “Moda” pero que yo soy especialista en zapatos y más concretamente en zapatos granates porque maneja un mayor porcentaje de beneficio, tienen más calidad que la competencia y su porcentaje de conversión es mucho mayor.
Por ello, a pesar de tener una arquitectura de la información correcta, en este ejemplo, tenemos una arquitectura de enlazado deficiente, ya que nuestra url principal, está situada en la base de esta pirámide de autoridad, haciendo que no acumule Page Rank, ni que reciba enlaces temáticos y con anchors específicos y en definitiva que no sea relevante de cara a Google.
Como comentaba a principio del video, existen multitud de tipos diferentes de arquitectura y realmente ninguna es correcta, cada site y cada negocio es diferente, por ello, cada arquitectura es diferente.
Nuestro trabajo como seos, es a de generar arquitecturas de la información y arquitecturas de enlazado de la forma más óptima, y siempre teniendo en cuenta el negocio y a nuestro cliente.
En esta serie de videos sobre arquitectura web trataremos todos los tipos que existen, daremos consejos sobre cuándo utilizar estas arquitecturas y cómo adaptarlas a nuestro sitio de una forma eficiente de cara a la rentabilidad.
¡Un saludo y nos vemos pronto!