Banco de conocimiento Ciberimaginario

Técnicas SEO

Técnicas SEO

Las Técnicas SEO hacen referencia al conjunto de prácticas que se utilizan para optimizar el posicionamiento en buscadores.

Podemos establecer, en función del ámbito al que se aplican, estos grandes apartados:

Técnicas generales

Reglas básicas de aplicación que debemos considerar en todos los casos.

Las técnicas generales SEO recogen un conjunto de protocolos de carácter global que nos ilustra sobre la forma de comportarse los buscadores y, por tanto, debemos considerar de manera integral en la mejora de posicionamiento de cualquier sitio web.

Técnicas específicas de sitio

Las técnicas generales recogen procedimientos que son aplicables de manera global a un sitio web, o lo que es lo mismo, que debemos tener en cuenta de modo global a la hora de diseñarlo.

Técnicas específicas de página

Procedimientos aplicables, de manera individual, a cada página de un sitio.

Las técnicas SEO específicas de página se refieren a todos aquellos procedimientos que deben seguirse en la elaboración de cada página con el fin de garantizar su mejor posicionamiento en los buscadores.

Normalmente, a la aplicación del conjunto de estas técnicas se denominan como One-Page, y suponen, básicamente, incluir información relevante en las principales etiquetas de la cabecera de un fichero HTML. Señalamos, aquí, solamente las más importantes

Técnicas SEM

Las Técnicas SEM (Search Engine Marketing) se encargan, a partir de los procedimientos generales SEO, de promover el posicionamiento, la visibilidad y la “encontrabilidad” en los resultados ofrecidos por los sistemas de recuperación de información de sitios o contenidos desplegados en Internet, mediante diferentes técnicas de eMarketing como los enlaces patrocinados, publicidad contextual, inclusión patrocinada en las listas de resultados…

Técnicas SEO generales

Las técnicas generales SEO recogen un conjunto de protocolos de carácter global que nos ilustra sobre la forma de comportarse los buscadores y, por tanto, debemos considerar de manera integral en la mejora de posicionamiento de cualquier sitio web.

Enlaces entrantes

Como ya hemos visto, los buscadores privilegian los enlaces. No en vano, es ese el modo por el que son capaces de recorrer la topografía de la Web. Son sus vías de reconocimiento y los canales a través de los cuáles mapean el tamaño y dimensiones de la Red.

Los programas de análisis de los buscadores son, cada vez, más sofisticados, por lo que debemos, además de acumular enlaces, tener en consideración otras cuestiones vinculadas respecto a la calidad de estos:

  • Los enlaces que proceden de dominios Top-level (.es, .edu, .org…) tienen más relevancia que los que apuntan desde otros dominios o subdominios.
  • El dominio del que proceden los enlaces, o a los que apunta, es muy relevante. Todos los enlaces no tienen el mismo peso. Por ejemplo, comparando la dirección IP de alguien que da links con la dirección IP de quien recibe ese link. Si al hacerlo se comprueba que ambas direcciones coinciden en el bloque C (la tercera parte, o sea, la penúltima, de las cuatro que forman el número IP), lo más probable es que ambas direcciones vengan del mismo proveedor e, incluso, tal vez del mismo servidor. En ese caso, el buscador devaluará el valor de esos enlaces.
  • Las redes naturales de enlaces, es decir, aquellas que siguen patrones lógicos de crecimiento, de relación temática, etc. son privilegiadas frente a aquellas otras que parecen artificiales (intercambio o compra de enlaces, granjas de enlaces…)

Medidas vinculadas con los enlaces: número y calidad

Si los enlaces poseen tal importancia, es lógico que se hayan establecido distintas métricas que pongan en valor una página o un sitio web en función de cuántos enlaces apuntan a ella y la calidad que estos poseen (de alguna manera, entre otros muchos factores, la calidad vendrá determinada, a su vez, por el valor que posee cada una de las páginas o sitios desde los que apuntan esos enlaces)

El algoritmo HITS  mide la importancia de un documento en la Web, tomando como referencia la importancia de los sitios web en los que aparece citado, referido o enlazado. La relevancia se obtiene considerando dos categorías de sitios web relevantes.

  • “Hub”: Sitios muy enlazados (como los directorios DMOZ, Google, etc.) y que, a su vez, enlazan a sitios considerados importantes. Normalmente, además, poseen administradores que evalúan la calidad de los enlaces, lo que supone una garantía añadida para los buscadores.
  • “Authority”: Sitios que representan, en versión digital, el concepto de la  autoritas latina; es decir, sitios web que representan para muchos (y lo demuestran la cantidad de enlaces que apuntan a ellos) una referencia indiscutible en un tema dado. Aquellos enlaces que apuntan desde estos sitios son especialmente valorados.

Backlinks o Inbound links muestra el número de enlaces que se dirigen a una página web determinada. Por tanto, resulta fundamental conocerla, y mejorarla, porque es un  índice básico de la calidad SEO de nuestro sitio y, en consecuencia, del valor de nuestro dominio. Cada buscador utiliza una sentencia distinta para conocer el número de backlinks. Por ejemplo, en Google, se debe poner en la caja de búsqueda: link:URL a evaluar

Actualización de información

Los motores de búsqueda privilegian aquella información que está actualizada.

Después de todo, esto parece lógico. Los buscadores, insistimos una vez más, quieren ofrecer los resultados que satisfagan de la forma más eficaz las preguntas de quienes confían en ellos para encontrar información, servicios…, así que es razonable pensar que aquello que esté actualizado, pueda ponderarse mejor.

Antigüedad de dominios

La antigüedad de un dominio es un factor estructural de posicionamiento. La antigüedad es una garantía de valor para los buscadores, como lo son las marcas consolidadas.

Por otra parte, las malas prácticas SEO, o lo que  es lo mismo, el deseo de engañar a los motores de búsqueda posicionado de manera alterada un dominio en los resultados orgánicos del SERPs, ha hecho que estos tomen medidas para evitarlo, y una de ellas es favorecer aquellos dominios de larga duración: los “Crianza” y “Reservas” de buena añada.

Google aplica su Sandbox a los dominios nuevos. Se trata de un filtro que trata de evitar que los sitios web de reciente creación puedan obtener un posicionamiento clave de sus palabras clave en las SERPs, independientemente de que posea una buena optimización y/o numerosos backlinks. Se trata de eludir la actuación de los spammers y las prácticas Black Hat SEO.

En los últimos años han crecido los parking de dominios, portales dedicados a la compra, subasta y reventa de dominios con un buen SEO y un alto valor en las principales métricas (HITS, Traffic Rank de Alexa…) 

Conclusiones

  • Se debe sacar el máximo partido a los dominios consolidados
  • Evitar cambiar de dominio (aunque sean leves cambios de nombre
  • Cuando se realizan campañas específicas, salvo que se requiera realmente, puede ser preferible utilizar un subdominio que crear un dominio nuevo desde cero.

Buen servicio de hosting

La web está llena de ofertas mareantes para alojar nuestro sitio Web. Realmente encontramos prestaciones casi ilimitadas a precios muy bajos. Pero, ¿cuántas cosas conocemos que son, a la vez, buenas, bonitas y baratas? Pues ya tienes la respuesta.

Como en todo, debemos prestar atención al servicio de alojamiento que contratamos para nuestro sitio web. Existen numerosas posibilidades (hosting compartido, dedicado, servidores virtuales VPS, housing…) y lo importante es contratar aquella que mejor responde a las necesidades que tengamos.

Pero, ¿qué importancia posee esto desde la dimensión del SEO? Pues, singularmente, mucha. De entrada, la fiabilidad del servicio (tolerancia a errores, nivel de disponibilidad, gestión de backups, servicio técnico y soporte…), pero, sobre todo, el tiempo de espera y de respuesta para mostrar el sitio; es decir, cuánto tiempo tarda, una vez un usuario ha solicitado una página, en responder y ofrecer la misma.

Nuevamente, como los buscadores tratan de satisfacer al usuario, los menores tiempos de respuesta serán mejor valorados.

Buen contenido

Aunque la metáfora del tránsito de la Web nos lleva por playas en las que se surfea y mares apacibles en los que navegar, lo cierto es que la mayor parte de los internautas son auténticos exploradores que llevan cartas de navegar y finalidades muy precisas. Esto, desde luego, no va en contra de la natural serendipidad que embarga cualquier exploración en la web, pero sí nos dice que los usuarios buscan, directa o indirectamente, información y servicios que puedan satisfacer necesidades concretas. Por ello, normalmente triunfan aquellos sitios que son capaces de cubrir esa demanda mediante buenos contenidos, materiales de calidad y servicios de alto valor añadido. Es evidente que ello supone tiempo, esfuerzo y recursos, sin embargo, vale más poco contenido y de calidad que mucho y de escaso valor. La calidad se recompensa con accesos, los accesos arrastran enlaces, los enlaces aumentan (como ya sabemos) el SEO, y el SEO genera confianza y valor en nuestros sitios

Estar en directorios de referencia

Ya nos hemos referido a la volatilidad de la Web anteriormente. Esta, unida a su carácter abierto hace que las fuentes de autoridad estén mucho más dispersas y sea más difícil evaluar el valor real de la información. Por esta razón, los buscadores confían en determinados directorios que se convierten en fuente de referencia privilegiada. Si es así, caeremos en la cuenta de la importancia de ser “socios” (estar indexados) en dichos directorios.

El mayor directorio internacional es el Open Directory Project (DMOZ), una enorme base de datos clasificada temáticamente y que es gestionada por grupos de voluntarios, especialistas contrastados en cada ámbito, que evalúan críticamente una por una todas las peticiones de los que quieren ser indexados. Esta revisión manual garantiza el nivel de calidad del índice, por lo que es evidente las razones que avalan el prestigio que para los buscadores, y para otros directorios de referencia (Google…) posee.

Técnicas del sitio

Las técnicas generales recogen procedimientos que son aplicables de forma global a un sitio web, o lo que es lo mismo, que debemos tener en cuenta de forma global a la hora de diseñarlo.

Core Web Vitals: Mejorar los indicadores de calidad del sitio

Los buscadores privilegian los sitios que ofrecen una buena experiencia de usuario. Tras años de experiencia utilizando diferentes sistemas y medidas, Google ha establecido un modelo unificado de indicadores de calidad, las Core Web Vitals, con el objetivo de establecer un modelo unificado y sencillo de generar informes de rendimiento del sitio web, y, con ello, facilitar a los desarrolladores una manera más sencilla de abordar la mejora de sus sitios.

Actualmente, las Web Core Vitals se centran en tres ámbitos de la experiencia de usuario:

  • Carga
  • Interactividad. El tiempo 
  • Estabilidad.

Carga

El tiempo que tarda en cargarse los diferentes ficheros que arman la página y, por tanto, debe esperar el usuario para que esté disponible el contenido.

La métrica asociada es el LCP (Largest Contentful Paint) que «se refiere al tiempo para el despliegue del contenido más extenso. LCP por sus siglas en inglés, mide el rendimiento de carga. Para proporcionar una buena experiencia de usuario, el LCP debe producirse dentro de los 2,5 segundos desde que la página comienza a cargarse.» (Web.dev)

Interactividad

Los usuarios interaccionan con las páginas, por lo que el tiempo que se dispone de los elementos necesarios para hacerlo es fundamental. La métrica asociada es el First Input Delay (FID) que «se refiere a la demora para la primera entrada, FID por sus siglas en inglés, mide la interactividad. Para proporcionar una buena experiencia de usuario, las páginas deben tener un FID de menos de 100 milisegundos.» (Web.dev)

Estabilidad

Una buena experiencia de usuario pasa porque los elementos estructurales de la página sean estables, y que cualquier cambio en el diseño debido al carácter progresivo de la carga, no altere, por ejemplo, las posiciones de los botones, enlaces u objetos sobre los que interaccionamos. Lo molesto que resulta esto se entiende bien desde la experiencia que tenemos en muchos periódicos, cuando los accedemos desde el móvil, y la carga de elementos de publicidad va desplazando los objetos de manera que, cuando pulsamos en un sitio se ha cargado algo de manera inesperada y estamos accediendo a un lugar diferente al que deseamos.

Esta métrica, Cumulative Layout Shift (CLS) busca evitar que esto suceda, y «se refiere al cambio acumulativo en el diseño CLS por sus siglas en inglés, mide la estabilidad visual. Para proporcionar una buena experiencia de usuario, las páginas deben mantener un CLS de menos de 0,1.» (Web.dev)

Resultados esperados

Obtener un buen resultado en las Core Web Vitals supone alcanzar, al menos, el umbral del percentil 75 de cargas de página, segmentado en dispositivos móviles y de escritorio.

Testear y testear 

Obtener un buen resultado en las Core Web Vitals supone alcanzar, al menos, el umbral del percentil 75 de cargas de página, segmentado en dispositivos móviles y de escritorio.

Para  comprobar el cumplimiento de estos resultados debemos realiza test  del  sitio web con aplicaciones como Test My Site de Google o el Lighthouse de las herramientas de desarrolladores del navegador.

Generar palabras clave adecuadas

Valiéndonos del aforismo de Mark Twain, podemos decir que la diferencia entre una palabra clave adecuada y la que es casi adecuada es la misma que entre un rayo y una luciérnaga.  Tanto es así que parte de los estudios SEO que se realizan están dirigidos en este sentido: descubrir, para cada caso, quién es el rayo y quién la luciérnaga. No tenemos una bola de cristal, pero sí ciertas técnicas y muchas herramientas que nos ayudan a ello.

Lo primero que debemos saber es que la manera de buscar por palabra clave ha evolucionado con el paso del tiempo. Se ha pasado de una búsqueda basada fundamentalmente en una sola palabra, a búsquedas más complejas en las que se incorporan varias palabras, incluso frases completas.

Pero, ¿cómo lograr buenas palabras clave, esas que los usuarios introducirán para encontrarnos? Algunos consejos:

  • Ponerse en el lado del usuario. Pensar en el problema que pretende resolver, y la manera en la que lo describiría.
  • Focalizar el elemento fundamental que ofrece nuestro sitio.
  • Focalizar el público objetivo, el target, y cómo realiza sus búsquedas este.
  • Potenciar los elementos diferenciales, y compararnos con la competencia, evaluando qué palabras clave utilizan.
  • Considerar que los buscadores diferencian palabras clave que estén en plural o singular, o que figuren escritas juntas o por separado (socio económico o socioeconómico)
  • Tener en consideración las diferencias lingüísticas regionales o dialectales, los argots, los lenguajes técnicos… que puedan estar vinculadas con nuestros públicos objetivos.
  • Seleccionar palabras clave que sean utilizadas, además, en el texto de la información (en la página)
  • Aunque los buscadores tienden a obviar determinadas palabras como los artículos, las preposiciones, los adverbios, etc. según el tema que tratemos, conviene asegurarse sobre cómo se comportan los buscadores en cada caso; se recomienda hacer pruebas para ello.
  • Ordenar las palabras clave por relevancia. Las primeras siempre son las más importantes para los buscadores.

Otro aspecto que debemos considerar es el número de palabras clave que conviene incluir. En este sentido, sobre optimizar el sitio cargando una lista indefinida, y absolutamente diversa, de términos clave es un error. Nuestras palabras clave deben ser eficaces, y para ello, apuntar a la diana. Por ello, se suele establecer una horquilla de entre 6 y 12 palabras clave como el número óptimo que debemos incluir. Eso sí, generar, como veremos, cierta redundancia de las palabras clave en diferentes elementos de la página será positivo.

Optimizar el texto visible

Entendemos como texto visible todo aquello que el navegador puede mostrar (se excluyen, por tanto, la información de cabecera de los ficheros html, etc.)

Los buscadores penalizan la inserción de texto en una página que no pueda visualizar el navegador, bien porque se oculta con el mismo color de un fondo (texto rojo sobre fondo rojo, etc.), mediante plantillas de estilo trucadas, capas fijas de color, etc. Como no les gusta lo penalizan, y tarde o temprano descubren el truco. El consejo: ¡no hacerlo!

Optimizar la densidad de palabras clave

Para conocer cuál es el foco temático de una página los buscadores contabilizan las palabras incluidas en la misma. Con ese recuento, sacan estadísticas y definen cuáles son los ejes, o palabras clave, que marcan el contenido de la misma.

La relación que se establece entre las veces que aparece una palabra en una página y el número total de palabras es lo que se conoce como densidad de palabras clave.

A simple vista, podría parecer que cuanto mayor es ese número, mejor. Pero los buscadores están precavidos ante prácticas fraudulentas, y cuando creen que se está realizando stuffing (es decir, plagando un texto de una determinada palabra de manera forzada) penalizan a la página.

El valor idóneo actualmente para una densidad de palabras clave oscila entre el 3 y el 4%.

Es importante comprobar que ese el valor máximo (o en torno a él) de la palabra o palabras foco, y que no hay otras que, accidentalmente, superan dicha cifra, pues de otro modo el buscador tomará a aquellas como más relevantes.

Dar semántica a las páginas del sitio

Es muy valioso marcar adecuadamente los elementos de todas las páginas. Ello facilita la indexación semántica de los distintos elementos de un sitio.

Los títulos deben estar marcados como tales (<H1>, <H2>…), las listas numeradas y sin numerar, las citas… Todas, independientemente del diseño, deben aplicarse para definir la estructura correcta del documento. Los buscadores lo agradecerán, y los resultados de nuestros sitios, también.

Optimizar el nombre de dominio

El nombre de un dominio (la URL) es el primer elemento de “reputación digital”. Debemos concederle una importancia capital, ya que en él radica buena parte de nuestro éxito.

Cuando es viable, el que contenga la palabra clave foco de nuestro sitio, ayudará enormemente a mejorar la visibilidad del mismo en los buscadores.

Hacer nuestra página accesible: incluir etiquetas ALT para todos los elementos no textuales

Los buscadores son usuarios “ciegos”. Cuando encuentran por ejemplo una imagen son capaces de reconocer que está ahí, pero poco más; salvo que esta tenga un texto alternativo que explique su contenido, no podrán indexar la información que contiene o representa dicha imagen. Esto mismo, vale para cualquier elemento no textual.

 

 

Técnicas SEO específicas de página

Las técnicas SEO específicas de página se refieren a todos aquellos procedimientos que deben seguirse en la elaboración de cada página con el fin de garantizar su mejor posicionamiento en los buscadores.

Normalmente, a la aplicación del conjunto de estas técnicas se denominan como One-Page, y suponen, básicamente, incluir información relevante en las principales etiquetas de la cabecera de un fichero HTML. Señalamos, aquí, solamente las más importantes.

Etiqueta Title

<title>Comunicación Digital: Espacio de aprendizaje</title>

  • Es especialmente importante presentarle atención. En los gestores de contenidos, como WordPress, tendremos un plugin específico (como Yoast) para establecer el título de la página.
  • Además de ser la primera, es la que muestra en el navegador (línea de cabecera) el nombre de la página, y, por tanto, la que toman como referencia inicial los buscadores, además de que es el nombre que se registra en bookmarks, etc.
  • El título debe ser especialmente descriptivo, suficiente y claro, e incorporar, siempre que se justifique, la palabra clave foco de nuestro sitio.
  • Conviene que el título no sea especialmente largo (no más de 65 caracteres), y que las palabras más importantes o palabras clave vayan al principio.

Etiqueta Description

<meta name=”description” content=”Espacio de aprendizaje sobre Comunicación Digital de la Universidad Rey Juan Carlos de Madrid y el Grupo Ciberimaginario”>

  • Dentro del grupo meta-tags, la primera etiqueta es Description, en la que se incluye un breve resumen (abstract) del contenido de la página.
  • Es muy importante que el contenido incluido en la descripción sea especialmente preciso, y responda al contenido de la página. De otro modo, Google obviará esta información y generará su propio resumen.

Etiqueta Keywords

<meta name=”keywords” content=”revista, comunicación, multimedia, ciberperiodismo, urjc, periodismo electrónico, periodismo digital”>

  • Otra etiqueta que pertenece al grupo meta-tags, y que incluye el contenido de las palabras claves seleccionadas, y cuyas recomendaciones ya hemos tratado.

Etiqueta Robots

<meta name=”robots” content=”index, follow”>

  • Dentro del grupo meta-tags, la etiqueta Robots ofrece información a los motores de búsqueda sobre qué se quiere que hagan con la página, con la combinación de dos instrucciones: Index (la página a la que apunta) y follow (si el robot debe rastrear los vínculos de esa página o no)
Black Hat SEO

Concepto

Las Black Hat SEO hacen referencia al conjunto de prácticas, estrategias y métodos que se sirven de técnicas no lícitas o fraudulentas para mejorar el posicionamiento en los buscadores.

Aunque se trata de un fenómeno muy extendido en la Red, lo cierto es que es muy poco recomendable desde un punto de vista profesional. Además de los aspectos puramente éticos que hay detrás, y que es fundamental considerar, la capacidad creciente de los buscadores para rastrear el uso de estas prácticas y penalizarlas severamente mediante el “descarte” de los sitios o una baja representatividad en sus listas de resultados (lo que en se conoce como estar suspendido), hace que debamos ser muy precavidos a la hora de utilizar, aunque sea por desconocimiento, cualquiera de estas técnicas, pues es relativamente sencillo atravesar la frontera entre un posicionamiento web “legal” y una práctica incorrecta si no se toman las precauciones adecuadas.

¿Cómo saber, entonces, cuándo estamos conculcando las buenas prácticas de posicionamiento y nos estamos adentrando en terrenos pantanosos? Pues dbeemos:

  • No romper nunca las reglas establecidas por los buscadores
  • No afectar nunca a la experiencia de usuario de forma negativa debido a la aplicación de algunas de estas técnicas
  • No presentar el contenido alternado por algoritmos para generar contenido automático que trate de engañar a los buscadores.

Técnicas a evitar

El conjunto de técnicas Black Hat SEO va creciendo a medida que se descubren sus efectos y, como señalábamos, los propios administradores de los buscadores tipifican estas prácticas y comienzan a aplicar “sanciones” a los sitios web en las que se localizan.

Se trata de prácticas poco éticas y especialmente sancionadas por los administradores de los buscadores. Afortunadamente, un poco de sentido común y la revisión con alguna de las diversas herramientas para testar que nuestro sitio o página web no está incurriendo en ninguna mala praxis nos ayudará a evitarlo.

El siguiente esquema muestra las técnicas más habituales:

Fuente: Manuel Gertrudix

 

Fuente: Manuel Gertrudix

Sobreoptimización mecánica y tanteo

Consiste en insertar dentro del texto de una página web el mayor número de palabras claves o enlaces. Para ello, se utilizan generadores automáticos que suelen ser, por otra parte, reconocidos tarde o temprano por los analizadores de los buscadores.

Granjas de links

Se trata de páginas, alimentadas normalmente por generadores automáticos, que están completamente llenas de enlaces (habitualmente, por encima de cien, los buscadores comienzan a sospechar) con la finalidad de mejorar el posicionamiento de Google. Aunque esta técnica ha funcionado relativamente durante un tiempo, los buscadores han aprendido a localizar rápidamente estas granjas de links y a desestimarlas.

Saturación de la densidad de palabras clave

Vinculada con la sobre optimización, esta técnica aumenta la densidad de palabras claves de forma artificial por encima de los valores permitidos (normalmente entre el 3% y el 15%) Esta técnica se conoce, también, como Spamming Keywords o Keyword Stuffing. Consiste en repetir, dentro del texto, las mismas palabras claves una y otra vez, por lo que los textos suelen tener estructuras poco lógicas (lo que es fácilmente reconocible por los buscadores) Para evitarlo, conviene redactar adecuadamente, utilizar sinónimos, etc.

Doorway pages

Las páginas traseras o páginas puente son páginas máscara creadas como páginas iniciales, únicamente pensadas para los buscadores. Suelen ofrecer información pensada para mejorar el posicionamiento, bien para ocultar el contenido real del sitio (páginas de contenido engañoso, spam…) bien porque el sitio está desarrollado con tecnología que ofrece problemas para la indexación de los buscadores (flash, frames…) Son especialmente penalizadas por los buscadores.

Cloaking

Se trata de una técnica de encubrimiento basada en disponer dos páginas diferentes en función de quién realice la consulta: un navegador o un buscador. Normalmente, las páginas “preparadas” para los buscadores están sobreoptimizadas.

Bait and Switch

Variante del cloaking que consiste en “engañar” al motor de búsqueda generando una página con un contenido determinado, esperar a que el buscador la indexe, y sustituyendo el contenido por otro una vez ha sido indexada.

Copy me

Mediante consultas automatizadas a páginas con buenas posiciones en el ranking, se localizan contenidos de alto valor en la web que incluyan palabras clave de alta rentabilidad comercial, y se duplican literalmente, tratando de “secuestrar” parte del tráfico que obtienen dichos sitios. Es una práctica creciente, y especialmente dañina para sitios relevantes, ya que puede generar una gran confusión sobre quién es el verdadero propietario de esos datos.

Alta variabilidad del número de enlaces

Se trata de todas aquellas estrategias que tratan de aumentar el número de enlaces mediante compra o intercambio, creando redes artificiales y forzadas. Su naturaleza hace que la tasa de variación de los enlaces sea muy alta, por lo que hace sospechar a los buscadores que están pendientes de cuestiones como el promedio de enlaces que recibe un sitio, el aumento o disminución de links, etc.

Cambios incoherentes de tema

Los spammers realizan búsquedas sistemáticas de dominios que hayan quedado “libres” y que tengan un buen posicionamiento, para adquirirlos y/o venderlos/subastarlos o colocarlos en parking de dominios en plataformas como Sedo. Una vez se venden, esos dominios cambian normalmente de tema, por lo que comienzan a perder enlaces y ponen en alerta a los buscadores.

Hacking

Se trata de un “secuestro” de las posiciones de las páginas aprovechando algún sistema de redireccionamiento que tenga nuestro sitio web (como por ejemplo, cuando hay algún tipo de contador de clics intermedio) de forma que se modifica ese redireccionamiento en beneficio de la página o sitio “secuestradora”.

Enlaces a páginas dudosas

Los enlaces a páginas de contenido dudoso (Bad pages) son peligrosos, especialmente si se trata de sitios que puedan estar en listas negras de los buscadores.

Enlaces rotos

Las páginas poco cuidadas y que incluyen enlaces rotos son penalizadas por los buscadores. No en vano, como hemos visto, los enlaces son el camino natural de reconocimiento de estos. Conviene revisar adecuadamente que todos los enlaces de nuestros sitios funcionan adecuadamente.

image_pdfVersión pdfimage_printImprimir