1. ¿Qué son los backlinks o enlaces externos?
El término
backlinks se refiere al número de páginas que enlazan a una web concreta (tus enlaces entrantes). Por ejemplo, si 10 directorios tienen un enlace a tu página web, tendrías 10 backlinks. El número de
backlinks (enlaces externos), es importante para el
posicionamiento en los buscadores y es indicativo de la popularidad o importancia de una web. Es de esperar que cuantos más enlaces entrantes tenga tu página mejor posicionada esté. No obstante, no vale cualquier enlace para posicionarnos ni obtendremos los mismos resultados en función de la manera en que nos enlacen. Por ejemplo, los enlaces externos en
JavaScript son muy difíciles de seguir por los buscadores, por lo que rara vez cuentan para posicionarnos.
Lo ideal es que el backlink sea del tipo siguiente:
<a href="http://www.miweb.com/">keywords</a>
De esta manera, a parte de ser perfectamente válido para los buscadores, estás indicándoles que la página enlazada contiene información sobre las palabras clave escritas en el
anchor text (esto es el anchor text:
>keywords< ) . Por tanto, hay que tener cuidado en cómo nos enlazan, porque en función de la manera en que esté realizado el enlace, promocionaremos unas palabras clave u otras. Para más información sobre
cómo conseguir buenos enlaces, pincha en el link.
O si es una imagen:
<a href="http://www.tupagina.com">
<img src="logo.gif" alt="Palabras clave" /></img></a>
Sobre todo, asegúrate de que tu enlace no está hecho con javascript, porque los buscadores no pueden leerlos y no te servirá de nada de cara al posicionamiento. Los enlaces javascript son más o menos así:
<a href="javascript:http://www.tupagina.com()">Link</a>
También hay que tener cuidado de que no hayan incluido el atributo “nofollow” dentro de la etiqueta <a>, ya que estos enlaces no son seguidos por los buscadores.
Por último, decir que es importante no conseguir muchos enlaces de golpe, sino que ir trabajando en este aspecto calmadamente (por ejemplo, conseguir 10 enlaces el primer mes, 15 el segundo, 30 el tercero, etc.) para evitar que los buscadores interpreten este hecho como que estamos intentando manipular sus resultados y nos penalicen.
MetaTags
Es frecuente pensar que los buscadores le dan mucha importancia a los MetaTags, en particular a la meta tag keywords y la meta tag description, pero esto no es verdad. Estas metas son prácticamente ignoradas por los buscadores, puesto que se han convertido en puro spam en muchos casos. No obstante, y aunque no ayude al posicionamiento en los buscadores, puede ser interesante seguir añadiendo el meta tag de la descripción, ya que algunos de ellos lo tienen en cuenta al mostrar sus resultados. Si quieres añadir metatags a tu web, puede serte útil el
generador de metatags disponible en esta página.
Título y etiquetas de encabezado
Los títulos son etiquetas que sí se toman en cuenta de cara al posicionamiento en los buscadores, ya que éstos les conceden bastante importancia. Es imprescindible añadir un título a cada página, pero procura que no exceda de 60 caracteres para dar más densidad a tus palabras clave.
Las etiquetas de encabezado (h1, h2, h3, etc.) también pueden ser útiles en el posicionamiento web en buscadores, por lo que puedes meter en ellas algunas de tus palabras o frases clave, siempre con moderación y coherencia para evitar hacer spam y ser penalizados.
Ni que decir tiene que es precisamente el título lo que primero ve una persona en los resultados de búsqueda y lo que le tiene que impactar o interesar para decidir entrar en tu página.
Incluir un mapa web
Son aconsejables cuando la página web es muy grande o es difícil que los buscadores puedan seguir los enlaces de los menús (por ejemplo, por la utilización de javascript o flash, ya que no pueden leerlo). En el mapa web se deben poner enlaces de texto a todas las páginas del sitio, pudiendo el buscador de este modo acceder a toda nuestra web. No obstante, no pongas más de 100 enlaces por página porque esto puede ser penalizado.
Evitar la utilización de flash, archivos PDF y javascript en la medida de lo posible
Evita la utilización de archivos flash innecesarios, a los buscadores les cuesta mucho indexarlos y en la mayoría de los casos no lo hacen. Lo mismo pasa con los archivos pdf, que aunque presentan menos problemas que los primeros, también pueden crear dificultades de indexación. Por su parte, el código javascript presenta otro problema para los buscadores ya que la mayoría no puede seguir los enlaces que contienen, por lo que si tu menú está hecho en javascript probablemente sólo conseguirán indexar tu página principal.
Ceñirse a los estándares web
Validar nuestras páginas conforme a los estándares nos ayudará de forma indirecta al
posicionamiento en los buscadores, ya que al validar nuestras páginas estamos revisando posibles errores de programación que pueden causar dificultades a los robots para indexar nuestras páginas, o que éstas no se vean correctamente por el usuario. Cuanto más fácil se lo pongas a los robots para indexar tu página mejor. Para conseguir este objetivo, revisa a fondo los manuales del W3C (la organización que crea los estándares web) y utiliza su
validador.
Tamaño máximo de páginas y enlaces
La cifra mágica para ambos casos es 100. No más de 100 enlaces por página (mejor no aproximarse) y no más de 100 Kb. de peso. Si pones más de 100 enlaces en una página corres el riesgo de ser penalizado en los buscadores, por lo que tus posiciones caerían drásticamente o incluso te borrarían de la base de datos. Intenta no superar los 80 enlaces para estar seguros de no estar haciendo las cosas mal. En cuanto al peso de la página, si supera los 100 Kb. muchos buscadores no te la indexarán, además, cuanto más pese más tardará en cargar, cosa que no es recomendable de cara al usuario.
Monitorizar la web, posicionamiento continuo
Monitorizar la web y sus posiciones en los principales buscadores es una estrategia útil para detectar a tiempo posibles pérdidas de posiciones. Para monitorizar posiciones hay programas y webs que facilitan la tarea, por ejemplo, el
Free Monitor for Google. No obstante, a la hora de controlar el
posicionamiento en Google, hay que tener en cuenta que es frecuente la caída brusca de posiciones o la desaparición de nuestras páginas, sobretodo cuando la web es nueva. Esto no tiene por qué ser malo, al contrario, es algo habitual y normal. Si tras un par de días la situación no ha vuelto a la normalidad puedes empezar a preocuparte.
Además, en el tema del posicionamiento de páginas web, constantemente salen cosas nuevas y quedan obsoletas las anteriores, por lo que puede ocurrir que lo que te resultó útil en su momento, ahora no te sirva para nada o incluso te perjudique. Razón más que suficiente para mantenerse al día en este tema y renovarse continuamente.
3. Tácticas penalizadas en el posicionamiento en los buscadores
La penalización de webs que realizan prácticas no éticas para posicionarse en los primeros resultados de búsqueda, es una estrategia que utilizan los buscadores para ofrecer resultados más interesantes a sus usuarios. Cuando se detecta que una página está realizando acciones no permitidas, se le penaliza, lo cual puede consistir en hacerla perder posiciones en las búsquedas o incluso eliminarla de los resultados y desindexarla. Entre los motivos que existen para ser penalizado, tenemos:
1.
Texto oculto.
2.
Webs duplicadas.
3.
Enlaces artificiales.
4.
Cloaking y doorways.
Texto oculto
Consiste básicamente en poner texto dirigido específicamente para los buscadores que no es visible para los usuarios con el fin de obtener un mejor posicionamiento en los buscadores. Los webmasters que realizan estas prácticas, se dedican a escribir palabras para rellenar su web y obtener así mayor densidad en ellas. Para que el usuario no las vea, es común que pongan el mismo color para el texto y para el fondo.
Webs duplicadas
Esto consiste en crear webs idénticas (con el mismo contenido y demás) para
conseguir enlaces para la web que realmente se quiere posicionar. Esta técnica está bastante mal vista por los buscadores, por lo que hay que evitarla. Además, hay que tener cuidado al cambiar de dirección web de no dejar online la misma web en las dos direcciones porque podrías ser penalizado al tener contenido duplicado.
Enlaces artificiales
Consiste en aumentar de forma artificial los
enlaces entrantes a una web. Se puede hacer de varias formas y todas ellas resultarán perjudiciales para nuestra web tarde o temprano:
- Realizar spam en blogs y libros de firmas, escribiendo en ellos con la única intención de dejar en enlace a la web.
- FFA y granjas de enlaces: son páginas dedicadas a dar enlaces a otras páginas, ya sea pagando o gratis, pero que con el tiempo son penalizadas duramente por los buscadores, así como las páginas enlazadas por ellas, por ser simplemente páginas con miles y miles de enlaces que no aportan nada.
- Cross-linking: realizar enlaces en cadena con conocidos u otras webs de forma que todas enlazan a todas formando un círculo. Si los buscadores detectan que el único motivo de esos enlaces es conseguir un mejor posicionamiento, pueden penalizarlas.
Cloaking y doorways
El cloaking consiste en hacer webs distintas en función de quién la visite. De esta forma, los webmaster realizan páginas totalmente optimizadas para los robots y páginas distintas para los usuarios con el fin de obtener un buen posicionamiento en los buscadores. Cuando un robot intenta rastrear la página se le identifica como tal y es redireccionado a la página construida específicamente para él, lo mismo ocurre con los visitantes normales.
Las doorways son un caso particular de Cloaking, en el que se realizan páginas optimizadas con el único fin de obtener un buen posicionamiento web en buscadores. Normalmente, cuando el usuario intenta acceder a ellas es redireccionado a la página “de verdad” mediante un enlace javascript (los buscadores no pueden leerlos), mientras que cuando el buscador accede a la página se le permite navegar por ella y al no poder leer el enlace javascript almacena la página optimizada para él.
Aunque éstas técnicas puedan parecer atractivas, no la uses, puesto que cada día los buscadores implementan nuevos métodos de detección para ellas, por lo que tarde o temprano tus páginas serán penalizadas.