Según Wikipedia:
El hipertexto es una estructura no secuencial que permite crear, agregar, enlazar y compartir información de diversas fuentes por medio de enlaces asociativos y redes sociales, basado en la conexión de datos entre documentos.
El hipertexto es un concepto que data de los años 40, y pasaron 50 años hasta que el hipertexto tuviese el uso que le damos actualmente.
En 1991 Tim Berners-Lee utilizó este concepto para crear los hoy tan conocidos HTML (HyperText Markup Language) y HTTP (HyperText Transfer Protocol).

Ambos dos fueron creados con la finalidad de facilitar el uso de la naciente internet, creando sistemas de cliente servidor que facilitasen al usuario navegar por ellos.
Es en este momento en el que el equipo de Tim Berners-Lee introduce una etiqueta destinada a ejecutar este proceso de navegación.
La etiqueta anchor: <a>
Esta etiqueta en HTML1 estaba formada únicamente por un parámetro NAME (que a día de hoy está obsoleto), el tan necesario “HREF” (o Hypertext Reference) y un anchor text que explicaba qué nos íbamos a encontrar en la página a la que se hacía referencia.

Ahora avanzamos un poco en el tiempo, a 1999.
Ya explicamos en videos anteriores que el principal objetivo de Google desde que nació, era el de mejorar los resultados de búsqueda, ante el creciente internet.
Larry Page y Sergey Brin tenían claro que internet crecía a un ritmo increíble. En el paper al que siempre hago referencia, se habla de que otro motor de búsqueda (el WWWW) había pasado de 110 mil documentos en 1994 a 100 millones en tan solo 3 años, por lo que estiman que en el año 2000 había la cantidad de un billón de documentos a tratar.

La computación de la época no avanzaba tan rápido como internet y eran conscientes de que no iban a poder rastrear esta cantidad de documentos para clasificar su contenido.
Mientras hacían uso de los primeros crawlers, se dieron cuenta de algo que cambiaría la historia de los buscadores de la época, y es que los enlaces, iban acompañados de un anchor text que explicaba que contenido iban a encontrar en la siguiente web.
De esta forma eran capaces de clasificar contenido mucho más rápido ya que leyendo una única página de HTML y extrayendo los anchor de sus enlaces salientes, eran capaces de averiguar de qué se hablaría en las páginas de destino.
Esto agilizó mucho el proceso, ya que si por ejemplo, una URL tenía 15 enlaces salientes con 15 anchor diferentes, eran capaces de clasificar los 15 siguientes documentos a partir de un único crawleo. Imaginaros esto el avance que supone en cuanto a computación.
Y aquí es donde aparece el siguiente factor clave de este proto-Google el Page Rank.

El Page Rank (creado por Larry page) es un cálculo matemático que estima la calidad de una url basada en la cantidad de enlaces entrantes y salientes de esta (y muchas otras cosas que veremos ampliamente en una serie de vídeos).
Y con este algoritmo, consiguieron ordenar los resultados que estaban clasificando de una forma más rápida. Mejorando así la calidad de los resultados de búsqueda.
A día de hoy existe mucha controversia sobre este tema.
Cuando hablamos de Page Rank solemos generalizar con el Page Rank externo, pero no debemos olvidarnos que toda web tiene un Page Rank interno que estima qué urls son las más relevantes dentro de un sitio web.
Incluso se habla de que el Page Rank ya está obsoleto y que desde hace un tiempo Google aplica una nueva métrica llamada Trust Rank basada en distancias entre nodos, algo parecido a lo que comentamos en el video anterior sobre distancias entre palabras clave.
Os dejo por aquí un enlace al post de useo.es en el que habla detalladamente de esta métrica.
A lo largo de esta serie de vídeos sobre enlaces, hablaremos sobre estos tipos diferentes de autoridad e iremos aportando información sobre estos aspectos, seguro que esta serie es la que más controversia crea, ya que el enlazado externo a día de hoy es considerado desde Google como algo penalizable si se practica deliberadamente para alterar estas métricas.
También hablaremos de lo algoritmos como Penguin, que se dedican a la detección de estructuras de enlaces basadas en patrones de comportamiento.
Y es que como comentamos en el primer video del canal, desde la publicación del paper “The Anatomy of a Large-Scale Hypertextual Web Search Engine”, los seos han intentado manipular este PR externo para hacer crecer la relevancia de sus urls.
A día de hoy los enlaces no tienen tanta relevancia dentro de los sistemas de puntuación como tenían en este proto-Google, pero siguen siendo parte fundamental del núcleo de puntuación.
Gracias a este paper nos podemos hacer una idea de lo importantes que eran los enlaces al principio, con un ejemplo que muestran en documento:

En este gráfico hablan sobre la consulta Bill Clinton, presidente de estados unidos en la época, y sobre cómo el algoritmo había llegado a la conclusión de que la URL whitehouse.gov era la que tenía que rankear por esta palabra clave, sin siquiera haber analizado el contenido dentro de esta url, simplemente basándose en la cantidad y calidad de enlaces y los anchor que esta url tenía.
Es curioso ver como en este proto-Google, las urls ni siquiera estaban clusterizadas por dominios y cada una tenía un comportamiento y puntuación individual. De hecho, en este documento se menciona que empiezan a valorar la idea de crear clústeres como por ejemplo “hosts names” o dominios.
Esta clusterización es la que más adelante generaría algo que me encanta y es el enlazado interno.
Que es una parte del seo en la que acumulamos autoridad interna generando así un micro ranking de urls basado en prioridades de posicionamiento.
Sin duda el PR a día de hoy es relevante y junto al contexto y a la experiencia de usuario forman la base de los criterios de clasificación y puntuación de Google.