domingo, 12 de agosto de 2007

TECNICAS Y TRUCOS DE POSICIONAMIENTO WEB


Índice

Introducción: Verdad y mentira del posicionamiento en buscadores

Parte I: ¿Cómo funcionan los grandes motores de búsqueda?

1. Buscadores, directorios, arañas y otros bichos

2. Cómo lee un buscador un sitio web

3. El archivo robots.txt

4. Elementos que caracterizan una página desde el punto de vista de un robot

5. La asociación en la base de datos del buscador

6. Ordenando las páginas por importancia: el concepto de popularidad

Parte II: Estrategias para la asociación de nuestra URL a un término de

búsqueda

1. Algoritmos de asociación e ingeniería inversa

2. Elección de los términos clave

3. Optimización para un buscador (ej: Google)

4. Optimización para varios buscadores (ej: Google + Altavista)

Parte III: Compitiendo en la lista (estrategias de popularidad)

1. Análisis de la competencia

2. Autoreferencia

3. Directorios

4. Estrategias de enlace exterior: un poco de marketing on-line

Parte IV: Cosas que jamás hay que hacer

1. Texto invisible

2. Abuso de palabras clave

3. Páginas de bienvenida

4. Redireccionamientos automáticos consecutivos

5. Flash y páginas dinámicas (la internet invisible)

6. Enviar reiteradamente la misma URL al buscador

Conclusiones: El Arte del Posicionamiento

Introducción

Verdad y mentira del posicionamiento en buscadores El posicionamiento en buscadores es a la vez arte y técnica: construir u organizar páginas web de forma que aparezcan bien situadas en los buscadores. Cada buscador utiliza un algoritmo de indexación diferente que es permanentemente actualizado y mejorado. Estos algoritmos son considerados secretos industriales por las empresas que los crean. Esto hace que el posicionamiento en buscadores sea un auténtico ejercicio de ingeniería inversa.

Como cualquier hacker dedicado a la ingeniería inversa los verdaderos expertos en posicionamiento hacen cosas realmente "extrañas":

- Crean páginas de prueba o incluso dominios enteros con el único objetivo de determinar el comportamiento de cada uno de los motores de búsqueda.

- Descargan y analizan estadísticamente el código de las páginas

mejor situadas para una serie de términos de búsqueda frecuentes.

- Mantienen sus propios robots de análisis de resultados y ejecutan complicadas regresiones

Todo esto permite averiguar cosas como qué motores de búsqueda valoran meta tags, títulos, textos alternativos a las imágenes, popularidad de los enlaces, frecuencia de click-through, número de veces que las palabras clave aparecen en el texto, etc.

Ésta es la única forma de saber realmente qué valora cada buscador y tener las herramientas necesarias para optimizar la programación y el diseño de una página de entrada o un sitio web completo para su indexación en buscadores.

Muchos venden las conclusiones de sus trabajos lexométricos o las publican en informes confidenciales para empresas. La mayoría de las empresas que se anuncian como "expertas" en el posicionamiento no son sino compradoras en el mejor de los casos regulares- de alguno de estos informes. Que yo sepa, en España sólo PiensaenRed.com realiza sus propios análisis matemáticos y hace algo más que aplicar recetas algorítmicas.

Esto es especialmente valioso dado que los algoritmos cambian constantemente y los buscadores más importantes, como Google, reciben miles de peticiones de alta cada día. Cuanto más competitiva es la WWW, más difícil es conseguir una buena posición en áreas en las cuales hay muchos sitios rivalizando por la atención de los usuarios.

En un campo tan competitivo y al mismo tiempo tan opaco es natural que surjan todo tipo de desaprensivos: Algunas empresas de posicionamiento en buscadores aseguran un lugar entre los 10, 20 o 30 primeros del ranking de varios buscadores.

Mi consejo como especialista dedicado al posicionamiento desde mediados de los 90 es claro: No confíes nunca en alguien que te garantiza un ranking específico. O usan técnicas que pueden hacer que echen a tu sitio de los buscadores, o simplemente están jugando a vender éxitos fáciles (buenos puestos para condiciones de búsqueda muy específicas y poco populares). En ese caso, las supuestas "garantías" están de más, son simple humo. Otra promesa típica es darte de alta en más de 500 buscadores (¡o incluso más de 2000!). No te dejes engañar con estas cifras. es un timo. No te servirá para nada. Seguramente tú usas los mismos buscadores que todo el mundo. ¿Se te ocurriría usar alguno de los "más de 500 buscadores" que te ofrecen estas compañías (y que ni siquiera son buscadores, sino sitios de enlaces gratuitos)?

Hoy en día sólo Google genera directa o indirectamente más del 50% del tráfico comercial de la web. Si le añadimos Altavista y algún gran directorio como Yahoo!, vemos la escasísima función que juegan los "miles de buscadores" restantes.

Dos últimos consejos:

- En el mundo de habla hispana, directorios otrora importantes como Terra prácticamente han desaparecido de los "referrals". La fama o las visitas de los portales no dicen nada de la importancia de sus directorios o buscadores. De hecho la mayoría de ellos van pasando a entregar estos servicios a empresas como Google o Inktomi.

- No hay soluciones mágicas ni resultados instantáneos: los robots de búsqueda no pasarán cuando queramos ni las bases de datos se actualizarán de acuerdo a nuestros intereses. En este campo, como en tantos otros, la ley de Murphy es plenamente operativa :)

Parte I

¿Cómo funcionan los grandes motores de búsqueda?

1. Buscadores, directorios, arañas y otros bichos

Mucha gente piensa que Google y Yahoo! son esencialmente lo mismo... y se equivocan. El primero es un buscador ("search engine" en inglés) y el segundo un directorio.

En Yahoo! un grupo de personas llamados "surfers" recorren la web seleccionando sitios, comentándolos y clasificándolos en una base de datos según unos criterios más o menos homogéneos.

Efectivamente, luego existe un motor de búsqueda que busca en ESA base de datos. Una base de datos hecha por humanos, más pequeña por tanto que la de cualquier gran buscador, y que está formada por los datos introducidos por esos humanos (es decir, incluye valoraciones como "categoría" o "país")

En Google en cambio un robot (llamado Googlebot) rellena una base de datos primaria con el código de las páginas que visita. Un motor de búsqueda consultará en esa base cuando nosotros le preguntemos y dará resultados atendiendo a un complicado algoritmo que intentaremos comprender en siguientes páginas. La función de ese algoritmo es conseguir emular de una forma objetiva lo que los humanos hacemos de un modo instintivo: clasificar una página por temas, origen, etc. y listarlas jerárquicamente de acuerdo con su mayor o menor relación con el término buscado por el usuario.

El 50% del trabajo de posicionamiento se hace sobre el código de la página, preparándolo todo para que el motor de búsqueda nos destaque entre todas las páginas almacenadas en su base de datos.

El otro 50% del trabajo es una cierta forma de "marketing de red" cuyo objetivo es que el bot nos visite con cierta frecuencia y reporte en la base de datos lo importante que es nuestra página para otras muchas (incluidas otras de nuestro sitio) que la enlazan.

Repasemos un poco los conceptos:

Directorio: sitio web que gestiona una base de datos confeccionada por humanos. Esta base de datos almacena y clasifica en categorías URLs junto con sus comentarios

Buscador: sitio web que gestiona una base de datos confeccionada por robots. Esta base de datos almacena directamente el código de las páginas visitadas por los bots o parte de él.

Motor de búsqueda: programa que selecciona y jerarquiza resultados entre las entradas de una base de datos en función de unos términos y criterios de búsqueda.

Robot (cariñosamente bot): es un programa que navega la web yendo desde cada página a todas las que esta da enlace y enviando e incorporando el código o partes de él a una base de datos de referencia. También se les conoce como "crawlers", spiders o arañas.

2. Cómo lee un buscador un sitio web

Una vez que un robot entra en una página se "lanza" sobre el código buscando identificar una serie de zonas: la cabecera, el cuerpo... y dentro de ellas las etiquetas clave.

Sin embargo, esta "lectura" del código no tiene porque ser lineal. Google por ejemplo posterga el contenido de las tablas. En la clásica página en la que los contenidos aparecen enmarcados por un par de tablas anidadas, fuera de las cuales a penas queda la dirección de la empresa o el copywrite, lo primero que leería sería precisamente esto que aparece fuera.

¿Es eso realmente importante? Es cuando menos relevante. Como veremos una de las variables a tener en cuenta es la posición del término de búsqueda dentro del cuerpo de la página.

La "sensación" del robot a la hora de leer nuestra página será muy parecida a la que tengamos nosotros al leer la misma página desde un ordenador de bolsillo (ODB o PDA en inglés). Es una experiencia recomendable para programadores y diseñadores web: al no tener espacio para mostrar todo el ancho de página, rompe el contenido mostrando columna a columna.

Irremediablemente, lo primero que vemos de una web es un larguísimo e inútil menú y no la información que buscamos. El robot en cambio lee fila a fila, pero al anidar tablas en celdas de otras tablas mayores, hacemos que el orden de lectura del buscador sea diferente del que intuitivamente pensamos al ver la página en el navegador.

no es la primera bajo la etiqueta El orden es algo importante. Algunos robots incluso, buscan las cosas en un determinado orden y sólo en él. De modo que si por ejemplo, la etiqueta , no archivará en su base de datos el título de la web...

3. El archivo robots.txt

Muchas veces el problema no es sólo conseguir que nuestras páginas aparezcan indexadas en buscadores, sino que algunas de ellas no lo sean.

Para ello existe un protocolo alrededor del archivo robots.txt, que se coloca en la carpeta raiz de nuestro sitio web.

El archivo se edita con cualquier programa de bloc de notas como el Notetab y se compone de las siguientes líneas:

User-agent:

Disallow:

Tras "User-agent:" hemos de colocar el código del robot al que queramos prohibir la lectura de determinados documentos o directorios. El de Google por ejemplo es "googlebot" y el de Altavista "Scooter". Si queremos que la prohibición se haga extensiva a cualquier robot deberemos poner un asterisco.

Existe un listado completo de robots con sus especificaciones en http://www.robotstxt.org/wc/active/all.txt

Tras "Disallow" debemos especificar los directorios o documentos que queremos ocultar a la curiosa mirada de los robots seguidos del símbolo "/" Así si queremos que ningún robot husmee en nuestro dominio el archivo debería configurarse como:

User-agent: *

Disallow: /

Por el contrario, para invitarles a un acceso completo:

User-agent: *

Disallow:

lo que sería equivalente a crear robots.txt como archivo en blanco

Si quisiéramos excluirles de los directorios "secreto" y "confidencial"

User-agent: *

Disallow: /secreto/

Disallow: /confidencial/

Si queremos vetar a un robot en concreto (Google en este caso):

User-agent: googlebot

Disallow: /

O por el contrario, invitar exclusivamente a uno (Web Crawler en este caso):

User-agent: WebCrawler

Disallow:

Finalmente, si no quisiéramos que entrasen o indexaran los archivos PDF

User-agent: *

Disallow: /*.pdf/

Durante un tiempo pareció que se impondría la metatag "robots" para cumplir las funciones del protocolo de exclusión. Sin embargo, hoy casi ningún robot las acepta mientras que el archivo robots.txt está completamente establecido y aceptado.

En cualquier caso, aquí van unas directrices generales sobre su sintaxis:

La metatag de robots contiene un par de instrucciones separadas por comas. Estas instrucciones son "index", que invita al robot a analizar la página ("noindex" si queremos prohibírselo) y "follow" que le invita a seguir los enlaces que encuentre en ella (o "nofollow" que se lo prohibe).

Los valores ALL y NONE pueden usarse para dar todos los permisos o denegarlos de ese modo sería equivalente a y por el contrario produciría los mismos efectos que

4. Elementos que caracterizan una página desde el punto de vista de un robot

Uno de los aspectos más importantes a tener en cuenta a la hora de posicionar un sitio web es conocer los criterios que utiliza el Robot del motor de búsqueda en relación con las diferentes partes del documento HTML.

A continuación vamos a definir la estructura típica de un documento HTML y seguidamente veremos cómo ésta puede afectar a su posicionamiento.

Esta es la típica estructura de un documento Html:

: :

INFORMACIÓN DE CABECERA

El primer elemento de un documento es la etiqueta , es decir, la cabecera del documento. En esta etiqueta se encuentra toda la información que va a describir las características del documento: título, descripción, palabras clave, Copyright, autor... Estas son algunas de las etiquetas más importantes de las recogidas dentro del encabezamiento:

Área del título

: Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste las palabras clave por las que queremos que nuestro sitio sea encontrado. La extensión del título no debe superar los 75 caracteres.

Área de metainformación

Es la encuadrada dentro de las etiquetas . Esta es una etiqueta genérica de información adicional, tuvo su época dorada cuando Altavista lideraba el mundo de los buscadores. Muy pocos robots la siguen leyendo a pesar de la publicidad de los "posicionadores" españoles. Su sintaxis es

Los principales atributos de cara a Scooter (el robot de Altavista) son:

DESCRIPTION: Es la descripción de lo contenido en el documento. En ella se ha de reflejar en pocas frases, la síntesis de todo el documento, toda la información.

KEYWORDS: Son las palabras clave. Facilitan al buscador información del documento, indicándole las palabras más importantes por las que quiere ser encontrado en un buscador.

Este es un ejemplo de una etiqueta "keywords" de la página

www.guiadeenfermeria.com

EL CUERPO DE LA PÁGINA

La otra parte del documento queda encuadrada en lo que se denomina el cuerpo de la página (todo lo que está entre y ). Dentro de esta subestructura aparecerán todos los elementos visibles por el usuario (fotos, texto, animaciones...).

AREAS ESPECÍFICAS DENTRO DEL CUERPO DE LA PÁGINA

Área de cabecera

El texto del documento, que como hemos dicho va incluido en el "body", puede jerarquizarse (aunque la mayoría de diseñadores lo consideren "anticuado", los robots no). La manera óptima de especificar dicha jerarquía es mediante las etiquetas

Texto alternativo

Es el texto que se asocia a la imagen mediante el atributo ALT de la etiqueta. Es una de las áreas más sensibles y menos cuidadas por los diseñadores que no siguen los estándares de usabilidad.

Texto hiperenlazado

Es el conjunto de texto de la página que aparece entre etiquetas y

Área de URLs

Conjunto de URLs mencionadas en el código de la página que aparecen referidas en el atributo HREF

Área de comentarios

Aún existen un par de buscadores que analizan el código de los comentarios que -de modo invisible para los usuarios- los programadores colocan para otros programadores dentro del código.

La etiqueta de comentarios sigue el siguiente formato:

5. La asociación en la base de datos del buscador

Hasta aquí los elementos estructurales del código de la página. A partir de ahora, tanto el robot como nosotros tenemos que dotarnos de una serie de conceptos que nos permitan medir la importancia de la palabra o palabras clave dentro de esas áreas.

Los conceptos generalmente usados y contrastados en las regresiones a las que los expertos someten periódicamente los resultados de búsqueda más competidos son los de:

- Frecuencia

- Recuento

- Peso y

- Relevancia

El trabajo estadístico / lexométrico que realizamos en empresas como "Piensa en Red", busca establecer dentro de unos márgenes de confianza aceptable, los óptimos de cada una de estas variables en cada una de las áreas del código.

El trabajo sobre el código de una página de cara a su posicionamiento consiste en medir cada una de estas variables en cada una de las áreas y modificar su contenido si sale de los márgenes recomendados por el estudio lexométrico para uno o varios buscadores.

Definamos ahora estos conceptos:

FRECUENCIA

Es el número de veces que el término de búsqueda aparece en el área. Varía en función de si los robots "leen" partiendo palabra o no, de si distinguen o no acentos, de si se elige la opción de búsqueda exacta y de si la búsqueda es sensible o no a las mayúsculas ("case sensitive" en inglés).

Por ejemplo: Scooter, el robot de Altavista, distingue como palabras diferentes "leon" y "león" o "enfermería" y "enfermería" (buscada 12 veces más que la anterior). Sin embargo si encuentra "Leon" y "leon", asignaría una frecuencia uno al término de búsqueda "leon" (ya que parece ser sensible a la distinción mayúsculas/minúsculas).

Googlebot, el robot de Google, por el contrario ha modificado su algoritmo recientemente para equiparar "leon" a "león" y "Leon" como la misma palabra (los usuarios no suelen poner acentos :)) aunque al igual que Scooter sigue sin partir palabra (de modo que en la frase "Los ciberpunks piensan que el ciberpunk es algo más que un género literario", la frecuencia de "ciberpunk" sería uno y no dos tanto para Scooter como para Googlebot)

RECUENTO

Cuenta el total de palabras en un área excluyendo las etiquetas html. Claro que por ejemplo, largos desarrollos en javascript se confunden sistemáticamente en muchos robots como parte del texto, en vez de distinguirse de él, con lo que engordan el recuento sin aportar nada.

PESO

El peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en la página o el área analizados.

Dado que el término de búsqueda puede estar formado por varias palabras, la fórmula general del peso podríamos definirla como:

P= n * F / R

n= número de palabras del término de búsqueda

R= Recuento del área

F= Frecuencia del término de búsqueda

En cualquier caso hay una amplia discusión sobre el papel del peso y su cálculo exacto. En general, suele rondar el 3% para las páginas mejor posicionadas... aunque obviamente esto se debe a que la frecuencia y el recuento de estas suele ser similar. Es lo que en lexometría llamaríamos un caso de "multicolinealidad": en la práctica vigilar el peso sirve como chequeo de la proporción entre frecuencia y recuento, no tanto como una variable independiente que actúe por si misma.

RELEVANCIA

La relevancia mide la distancia entre el comienzo del área y el lugar donde aparece la palabra clave. Claro que hay que tener en cuenta la forma en la que los robots "leen" la página, pues algo que esté gráficamente más arriba al verlo en el navegador, no necesariamente está más arriba en el código. Recordemos que Google por ejemplo "salta" las tablas y las lee al final.

Si el término de búsqueda aparece como primera palabra del área la prominencia es 100% y si es la última el 0%. Si aparece varias veces, se promedia.

Es decir, a no ser que hagamos R muy baja, dejando la palabra clave sólo como primera palabra del body, nunca tendrá un 100%, aunque lo más recomendable es colocarla con cierta profusión en el primer tercio de cada área.

6. Ordenando las páginas por importancia: el concepto de popularidad

Cuando Google apareció en la web, allá por el 2000, la nueva se transmitió rápidamente por el viejo sistema del boca a boca. Expertos y usuarios finales, cantamos alabanzas y pensamos que por fin había alguien al otro lado que entendía y sabía implementar lo que realmente se esperaba de un motor de búsqueda. ¿Por qué?. Sobre todo por su capacidad para jerarquizar resultados.

Hasta entonces, el lugar en la lista de resultados venía dado exclusivamente por el grado de asociación de la página al término de búsqueda en la base de datos del buscador (en los buenos buscadores) o incluso por la antigüedad (en los malos) Google fue el primero en completar la asociación con un criterio jerárquico completamente diferente e independiente de los componentes del código: la "popularidad".

¿Qué significa esto? De un modo muy sencillo podríamos decir que tu página será tanto más importante a la hora de ordenar resultados, cuantas más enlaces en otras páginas indexadas le apunten. ¿Eso era todo? Realmente no. Si el "índice de popularidad" fuera igual a la suma del número de enlaces que nos apuntan, bastaría con crear una multitud de páginas que apuntaran a la nuestra para mejorar su posicionamiento. Los algoritmos de "popularidad" se defienden de un modo sencillo pero efectivo de esta posible trampa:

El "índice de popularidad" es en realidad la suma del número de páginas que nos apuntan ponderada por el índice de popularidad de cada una de ellas (medido en porcentaje sobre la máxima puntuación alcanzable).

Podríamos resumirlo en la siguiente fórmula:

P(x) = 1/P(1) + 1/P(2) + ..... + 1/P(n)

Esta fórmula se ve ponderada según el término de búsqueda por el grado de relación con los términos buscados de las páginas que nos apuntan, de modo que la fórmula de ordenación final de resultados sería un poco más compleja y sería parecida a:

F (x) = G(x) *(1/G(1)*P(1) + 1/G(2)*P(2) + ..... + 1/G(n)*P(n) )

Siendo G el algoritmo que en función del análisis del código de una página y del texto del enlace que nos apunta establece el grado de relación de esta con el término de búsqueda y que se mide también como un porcentaje del máximo alcanzable.

Es decir, Google representa un avance en las herramientas de indexación y búsqueda en la WWW porque cuando solicitas una búsqueda realiza un trabajo en cuatro fases:

1. Busca en su base de datos aquellas URLs asociadas a la palabra criterio de búsqueda

2. Calcula sus distintos grados de asociación

3. Ordena las URL en función de su popularidad ponderada con el grado de asociación de las páginas que le apuntan y del texto del enlace que nos apunta desde ellas

4. Presenta los resultados

Hay que señalar sin embargo que aunque las tecnologías basadas en la popularidad se van extendiendo, ni siquiera Google las incorpora homogéneamente: por ejemplo, en la ordenación de resultados de su directorio (en realidad una versión del DMOZ de la que hablaremos más adelante) simplemente ordena dentro de cada categoría en función del índice de popularidad (representado por una barrita verde). Si lo pensamos esto tiene su lógica, ya que se supone que el criterio que nos lleva a una categoría determinada de un directorio es el mismo para todas las webs incluidas en él, lo que le exime de realizar el trabajo de asociación URL/criterio de búsqueda.

Otra nota importante es la importancia del “qué” nos apunta. El texto del enlace puede, si el número de enlaces es suficiente, llegar a determinar la asociación de una página con un término de búsqueda que ni siquiera contenga en su contenido. Como escribe Adam Mathes:

Descubrí que cuando buscaba el término "internet rockstar" devolvía la página de Ben [Brown]. En aquel momento, sin embargo el ni siquiera tenía la frase en su página aunque la legión de bloggers quinceañeros que le enlazaban siempre usaban esa frase en sus enlaces

Este hecho, recientemente comprobado en Google, implica no sólo la inutilidad de las tradicionales campañas de banners de cara a la popularidad (ya que los enlaces pasan por un servidor intermedio), sino también que frente al tradicional énfasis en los gráficos, el elemento clave del enlace vuelve a ser el texto.

Parte II

Estrategias para la asociación de nuestra URL a un término de búsqueda

1. Algoritmos de asociación e ingeniería inversa

Existen distintos métodos de muestra y regresión a partir de los cuales aproximarnos a los algoritmos de los distintos buscadores. Aquí trataremos el más sencillo (y más utilizado). Se trata de un método sencillo de ingeniería inversa, no tan sofisticado como los usados profesionalmente, pero sin duda útil y capaz de arrojar resultados que se aproximen bastante a la realidad de las funciones de asociación.

Una primera nota: los bots no actualizan directamente la base de datos del buscador, porque cada buscador tiene trabajando para si varios clones del bot. Para evitar problemas de sincronización o corrupción en los datos, el código y datos de las páginas visitadas se almacena en una matriz temporal diferente para cada bot. Cada cierto tiempo se supervisa y se actualizan los datos de la base de datos principal con los resultados de las propias de los bots. Así que incluso aunque tus logs registren una o varias visitas del bot deseado, los cambios no se incorporan ni mucho menos automáticamente a la base de datos del buscador... por ello un plazo de 3 meses es el mínimo para que un conjunto de buscadores empiece a reflejar los resultados de nuestro trabajo.

Esto también influye en nuestro trabajo: si el código de una cierta cantidad de las páginas que usamos de muestra para realizar nuestro análisis ha cambiado desde que el buscador compuso su base de datos nuestros resultados serán poco o nada fiables. En este tema por una vez Google nos lo pone un poquito más fácil: cuando nos muestra los resultados nos da acceso a una opción llamada "En caché" que muestra precisamente la última versión guardada por ellos de esa página.

Imaginemos que queremos aproximar los valores óptimos de frecuencia, peso, recuento y relevancia para cada una de las áreas en las que dividimos el código.

Profesionalmente lanzaríamos una serie de hipótesis que comprobaríamos usando un MLG (modelo de regresión lineal general) y testaríamos cosas como la valoración o no de metatags con variables dummies.

De modo casero, se pueden obtener valores aproximados de un modo más sencillo:

a. Cogemos una decena de palabras de las más competidas (en inglés)

b. Para los primeros 3 resultados de cada término entramos en caché y copiamos el código

c. Nos lo llevamos a un programa de análisis de código que nos permita un trabajo fácil de recuento como el NoteTab-Pro

d. En una hoja de cálculo creamos 30 tablas en blanco con las distintas áreas en filas y las distintas variables en columnas

e. Rellenamos las casillas con los valores propios del análisis de cada una

f. Para cada serie descartamos los 5 inferiores y los 5 superiores

, entre 280 y 350 en el recuento del body... etc".Nos queda finalmente una colección de intervalos: "Entre 5 y 8 palabras en el recuento del área de

Esta serie de intervalos representa ya una "receta" que contrastar con el código de la página que queremos optimizar.

Veremos que si actualizamos nuestras series y tablas regularmente, esos intervalos variarán, y si hemos elegido bien los términos de búsqueda de muestra, se irán afinando con el tiempo.

2. Elección de los términos clave

Es lo primero y parece obvio... Pero no lo es: no lo es por varios motivos: en primer lugar porque como ya hemos visto, en la mayoría de los buscadores no es lo mismo una palabra con acento que la misma sin acento ("enfermería" que "enfermería" por ejemplo), por lo que de optimizar para una (normalmente la que no tiene acentos) estaríamos perdiendo los que buscan la otra. Claro que no siempre podemos elegir y tendremos que forzar en muchos casos una "doble optimización" para la palabra con y sin acento. Por otro lado, conseguir resultados óptimos para una única palabra nos sitúa en la competición más dura. En general será más fácil obtener un buen posicionamiento cuanto más específica sea la búsqueda, es decir, posicionar www.guiadeenfermeria.com para "enfermería" será siempre más difícil que para "enfermería clínica".

Lo recomendable es jugar con un término principal para el que optimizamos el código consciente y rigurosamente y un término secundario o dos para el que dejaremos pistas en el código pero sin forzar la programación.

Pero, ¿cómo elegimos el término principal?. Tres deberían ser los criterios:

- el término más buscado relacionado con el tema principal de nuestra página

- el término por el que los usuarios que ya nos conocen buscarían nuestra página

- el término más atractivo para el potencial público de nuestra página

En algunos casos es fácil: por ejemplo en www.piensaenpalm.com los dos primeros criterios nos llevaban a luchar por el competidísimo término "palm", mientras que el tercero por una serie de parejas tipo "programas palm", "noticias palm" e incluso "medicina palm" Optamos por una estrategia centrada en la palabra "palm" con tratamientos específicos en algunas páginas para las parejas. La elección se demostró acertada pues tanto en Google como en Altavista (los buscadores objetivo de aquel posicionamiento) piensaenpalm.com aparece hoy entre los 5 primeros resultados de búsqueda para más de una docena de parejas tipo "* palm". Y la segunda para la palabra "palm", por encima incluso de la web oficial en español del fabricante Palm Inc.

Sin embargo no necesariamente los tres criterios deben apuntar hacia el mismo lugar.

Tomemos por ejemplo www.saludytecnologia.com, un sitio también dedicado a PDAs (ordenadores de bolsillo) en su aplicación para profesionales sanitarios. El primer criterio nos orientaría a las palabras "PDA" o "Palm". El segundo hacia algo parecido a "tecnología salud" o "tecnología medicina". El tercero según nos informan los logs sería claramente "salud" (ya que aparece en el cuarenta y tantos entre los resultados de la búsqueda "Salud" en Google y sin embargo esta es la búsqueda que más visitantes aporta desde buscadores).

¿Qué hacer? Dado el grado de especialización de la web a posicionar, optamos desde un principio a una estrategia centrada en grupos de dos palabras y sobre todo en "palm salud" y "pda salud" criterios en los que hoy ocupa la primera posición en el listado de resultados de Google. Un problema frecuente es el derivado del desconocimiento sobre el número de peticiones que como media recibe cada término de búsqueda. Cuando posicionamos www.guiadeenfermeria.com aún Google distinguía (como siguen haciendo Altavista y otros muchos buscadores) entre la palabra con tilde y sin tilde.

Decidimos invertir 100 dólares en un anuncio clasificado de Adwords en Google... para descubrir con sorpresa que por cada vez que una persona buscaba "enfermería", había diez que buscaban "enfermeria". También descubrimos que la palabra "enfermera" y su plural "enfermeras" era buscado abrumadoramente no por profesionales (nuestro público objetivo) sino por amantes de páginas para adultos... lo que nos lo eliminó como posible término secundario. Optamos por un doble posicionamiento en ese caso: "enfermeria" y "enfermería" (para los buscadores que las consideraban palabras distintas).

Hoy www.guiadeenfermeria.com ocupa el primer lugar en Google y el segundo y tercero respectivamente en Altavista para dichos criterios.

Hay un viejo truco relacionado: aprovecharse de los errores comunes de escritura de los internautas o de las diferencias entre idiomas. Por ejemplo imaginemos que hemos hecho una página sobre un programa de televisión llamado "Business". La mayoría de los usuarios españoles difícilmente deletrearían correctamente la palabra "business", muchos pondrían cosas como "bussiness" o "busines". En los buscadores que no cuentan la popularidad podría ser útil hacer réplicas de la página a posicionar con la expresión mal escrita y un enlace a la versión "correcta".

3. Optimización para un buscador (ej: Google)

Llegamos a este punto con unos márgenes de recuento, frecuencia, etc. En cada área del código de la página, que nos aproximan a un ideal ("la página ganadora") desde el que entender el algoritmo del buscador de turno.

Estos algoritmos cambian y se perfeccionan constantemente. Sin embargo existen una serie de prácticas comprobadas a lo largo de los últimos dos años.

Los mecanismos algorítmicos que yacen bajo ellas se caracterizan por permanecer estables a lo largo del tiempo. Son conocidas como "los mandamientos" y reconocidas como parte del "core" del algoritmo común a todos los buscadores por ingenieros y matemáticos de los principales motores en las cada vez más conferencias y encuentros internacionales entre hackers y diseñadores de buscadores en los que cada vez más se prodiga la comunidad de expertos ("hacker" =experto informático, por si alguien sigue traduciendo por "pirata").

En la práctica, la combinación de respeto a los márgenes calculados anteriormente en código para el buscador objetivo y de los "mandamientos" comunes a todos, nos aseguran en un 50% un posicionamiento digno en un buen número de buscadores.

Así, mi recomendación es:

ESCRIBIR LA PÁGINA CON LOS "MANDAMIENTOS" GENÉRICOS EN LA

CABEZA.

*Area Header

- Título de máximo 5 palabras en el que la primera sea tu palabra clave objetivo

- Metatag de descripción igual al título

- Metatag de palabras clave con las mismas 5 palabras separadas por comas

*Cuerpo de la página

- Empieza y termina la página (al modo como la lee el bot) con un texto que describa en 5 palabras tu web. La primera de ellas tiene que ser tu palabra clave

- No abuses de las imágenes ni del texto alternativo de estas. Pon como texto alternativo de la primera de ellas en orden de lectura en el código tu palabra clave

- No temas usar etiquetas

Algunos buscadores como Google no sólo miden el área de cabecera sino que distingue entre sus distintas jerarquías

- Incluye también el término de búsqueda como primera palabra del primer texto hiperenlazado de tu página.

- Otros buscadores, como el mismo Google, consideran el área de negritas y los tamaños de letra. Destacar tus palabras clave en negrita en el texto e incluso en un tamaño de letra mayor que el resto ayuda.

- Utiliza ampliamente la palabra clave en el texto "normal de tu página" sobre todo en su tercio superior, aunque tampoco abuses (por ejemplo no lo uses varias veces en una fila de tabla)

CORREGIR EL CÓDIGO SEGÚN LOS MARGENES CALCULADOS COMO "GANADORES"

Corregimos y eliminamos todo aquello que salga de los márgenes que antes calculamos para recuento, relevancia, frecuencia, etc que son propios del buscador para el que queremos optimizar.

DAR ÚLTIMOS RETOQUES DE ACUERDO A LAS PECULIARIDADES DEL BUSCADOR (en este caso Google)

- La proporción entre código y texto cuenta. Aunque se discute si directamente o por el efecto sobre otras variables, abusar de las líneas de código javascript o crear páginas intermedias de cookies o redirecciones consigue dañar seriamente el posicionamiento de tu página.

- Google también "puntúa" las URLs. Ayuda tener un dominio que incluyan tu palabra clave. Aunque recuerda que no parte palabra, así que www.saludytecnologia.com no aporta nada al posicionamiento para "salud" aunque www.salud-ytecnologia.com si. Subdominios o directorios en la palabra clave también ayudan (ej: www.saludytecnologia.com/salud )

4. Optimización para varios buscadores (ej: Google + Altavista)

Si hemos seguido el sistema "casero" de aproximación al algoritmo descrito anteriormente, optimizar nuestra página para un par de buscadores resulta relativamente fácil:

En primer lugar volvemos a las series de resultados que obtuvimos de las tablas de análisis. Y contrastamos quedándonos con los márgenes más rigurosos. Por ejemplo, si para Google nos sale que el título debería tener entre 5 y 7 palabras y para Altavista entre 6 y 10, tomaríamos un nuevo margen conjunto de 6-7 palabras.

Haríamos esto con cada una de las variables hasta confeccionar una nueva serie completa. Con este nuevo instrumento nos ponemos a trabajar siguiendo las reglas del epígrafe anterior. Es decir:

a. Hacemos la página con los "mandamientos" en la cabeza

b. Corregimos de acuerdo con los márgenes de la nueva serie

c. Tenemos en cuenta las peculiaridades del segundo buscador, en este caso Altavista, que podríamos resumir en:

i.Tenemos que colocar al menos una vez el término de búsqueda al final de la página aunque reduzca un poco la relevancia

ii.Considerar que Altavista distingue mayúsculas de minúsculas

iii.Altavista es un gran dinosaurio, fue el líder antes que Google a pesar de la fuerte competencia de Infoseek (hoy extinto). Mantiene las metatags, pero también ha aprendido a penalizar los viejos trucos de años atrás, como esconder texto dándole el mismo color que al fondo

Parte III

Compitiendo en la lista (estrategias de popularidad)

1. Análisis de la competencia

Por fin tenemos nuestra página con el código optimizado para un determinado término de búsqueda. Hemos hecho una cuidadosa alta manual en buscadores y nada... no aparecemos o si aparecemos lo hacemos en algún lugar perdido dentro de la lista de resultados. ¿Por qué?. ¿Los dioses del ciberespacio nos son adversos? ¿No le gustamos a los robots? Lo mejor que podemos hacer es pedir consejo una vez más a Google. Este buscador nos ofrece una barra de navegación gratuita con una serie de herramientas que nos serán de bastante utilidad en toda nuestra tarea. Esta barra muestra el "Page Rank" de cada página representado en una barrita verde.

Este "Page Rank" no es sino la medida de la popularidad de la página. Como vimos en un apartado anterior Google utiliza en realidad el "Page Rank" como punto de partida que pondera con el grado de relación entre las páginas que apuntan y el término de búsqueda (calculado con el mismo algoritmo que aplica a nuestra página). Así que aunque sólo fuera por saber como va nuestra página, la barra de navegación ya nos prestaría un buen servicio. Además, nos ofrece la opción "Información de la Página" y dentro de ella "Vínculos de Referencia Anteriores", que lista el número y origen de los enlaces que apuntan a esa página que aparecen en su propia base de datos.

Ahora demos un repaso a las URL que ocupan los primeros 5 resultados en los principales buscadores en los que nos queramos posicionar para el término de búsqueda objetivo. Echémosle un ojo a sus page ranks. Veamos qué páginas les dan enlace.

¿Cómo son estas páginas? ¿Son páginas de gran popularidad como "Yahoo!" y los principales diarios o hay también muchas páginas personales?. ¿Cuántos enlaces le apuntan? ¿Del orden de un centenar o de varios centenares?

Toda esta información nos servirá para elaborar nuestro propio plan de marketing on-line. El listado de sitios que apuntan a nuestra competencia a la hora de posicionarnos puede ser un excelente mapa de aliados: si le dan enlace a la competencia tal vez a la tuya estén dispuestos también y ya será distancia salvada. Lo que no está nada mal. En cualquier caso puede ayudarnos a formar un perfil y una biografía de las páginas con que competimos... y a ahorrar tiempo en seguir su estela si es que son mejores que las nuestras.

2. Autoreferencia

Al llegar aquí habrás descubierto que una buena parte de los enlaces que apuntan a cualquiera de las páginas con las que competimos son enlaces internos: secciones y páginas de la misma web que apuntan a la principal del dominio.

No se trata de un error. La popularidad también sirve para premiar a las webs con muchos contenidos... que sepan organizarlos bien.

Es recomendable dar enlace a todas las novedades en la página principal, así como a las cabeceras de sección, dónde a su vez, deberíamos poder dar un acceso directo a todos los contenidos del tema.

La plantilla del sitio también debe estar pensada desde esta lógica: que desde cualquier página del sitio pueda irse con un sólo click a la cabecera de otra sección. Que nada quede a más de dos clicks de nada.

Pero cuidado, si estás pensando en convertir su página en un directorio de si misma, dando enlace a todas las páginas desde todas las páginas, repasa las tablas de intervalos porque seguramente estés perdiendo lo que ganaste optimizando el código.

Otra recomendación importante en este sentido es que el texto hiperenlazado que remite a una sección, así como el nombre del subdirectorio en que se guarda la sección, incluyan el título de una palabra clave secundaria interesante. Por ejemplo, cuando hablábamos del posicionamiento de www.piensaenpalm.com con la palabra "palm" como objetivo primario y los pares "noticias palm", "programas palm", etc. como secundarios, lo primero que recomendamos fue que los subdirectorios se llamaran www.piensaenpalm.com/noticias, www.piensaenpalm.com/descarga/programas etc.

El tema de los enlaces con texto es mucho más difícil. Los diseñadores suelen aborrecer los interfaces de navegación y las barras de navegación textuales. Como consecuencia de esto, ensayamos un modelo mixto gráfico/ texto en www.saludytecnologia.com de modo que los enlaces se dieran desde texto, pero en una tabla "arreglada" gráficamente. Otra solución parecida es dotar a la página de un interfaz gráfico pero acompañarlo de una barra de navegación textual como en la ligera www.piensamarket.com

3. Directorios

Las páginas que aparecen al principio del listado de resultados de búsqueda de todos los buscadores que valoran la popularidad, tienen una o varias referencias de los dos grandes directorios: Yahoo! y DMOZ.

El primero es de sobra conocido. Sus "surfers" siguen normas estrictas de clasificación y comentarios... que pueden anular buena parte de nuestros esfuerzos si no colocan el término de búsqueda en la descripción que hacen del sitio.

El secreto está en sugerir descripciones objetivas, no abrumadoras, ni exhaustivas, que "ahorren trabajo" al surfer. Ellos están precisamente para evitar que las descripciones parezcan anuncios :)

Siempre se insistirá poco en lo delicado del proceso de alta. Una faceta del posicionamiento que una vez hecha mal es muy difícil de corregir. Sobre todo en directorios. Una vez más mi consejo es: huye de las altas automáticas y de los que te prometen más de diez buscadores... no hay tantos. Lo que harán con toda seguridad es colocar tu URL en "granjas de enlaces" que harán que importantes buscadores castiguen el posicionamiento de tu sitio web. El segundo directorio, DMOZ, es poco conocido en España... sin embargo no por ello es menos importante. DMOZ es un directorio confeccionado por voluntarios de todo el mundo y sostenido técnicamente por Netscape. También es conocido como ODP ("Open Directory Project"), el nombre del proyecto que le dio lugar.

¿Por qué es tan importante? Pues porque permite que grandes portales y buscadores usen su base de datos personalizando su apariencia y prestaciones. Cuando buscamos clientes de DMOZ nos encontramos con portales como www.eresmas.com y... nada más y nada menos que Google, que utiliza su base de datos como base del Google Directory, de la que toma categorías y comentarios a la hora de confeccionar las listas de resultados del buscador.

Vamos, que no sólo importa por la popularidad que aporta, sino porque si la palabra criterio de búsqueda no aparece en la descripción o el nombre de la categoría del ODP y Yahoo! en la que estemos, tendremos mucho mucho más difícil aparecer en el top.

4. Estrategias de enlace exterior: un poco de marketing on-line

Una pequeña pero efectiva campaña de marketing on-line orientado al posicionamiento te puede salir por menos de 400 e incluso competir con las estrategias de promoción de empresas mayores y con grandes presupuestos.

HACER UN BUEN ALTA ES EL MEJOR COMIENZO

En primer lugar es recomendable hacer un buen proceso de alta.

NO SÓLO LOS RICOS SALEN EN LOS PERIÓDICOS

En segundo lugar la prensa on y off-line te será especialmente útil. Unos repiten las noticias de los otros: Yahoo! News (que subirá tu popularidad notablemente) toma noticias de media docena de agencias y medios offline. Servirá para que webmasters de temas relacionados con el tuyo o interesados por él te den a conocer dándote enlace o recomendándote a sus lectores y servirá sobre todo para dar pie a una larga serie de citas y citas de las citas que es lo mejor que te puede pasar :)

Mira las páginas de referencia de www.guiadeenfermeria.com o www.arcadina.com y verás el éxito de este tipo de campañas. Merece la pena detenernos y ver cómo se prepara una campaña de este tipo:

- Preparas una nota de prensa clara y bien redactada, que transmita las principales ideas y utilidad de tu web de un tamaño que permita a los periodistas con prisas colocarla tal cual para "rellenar" huecos de edición. (Estos huecos pueden parecerte poco importantes pero son la clave de una buena campaña: el

objetivo es salir en medios, uno o dos medios te darán un poco más de cobertura si eres interesante, pero los recortes, notas y esquinitas serán las que hagan que mucha más gente te llegue a conocer)

- Preparas un listado de medios (agencias + periódicos y webs de noticias locales y nacionales + revistas y ezines de tecnología + revistas y ezines no tecnológicos de temas afines al de tu página + revistas y ezines que le interesan al mismo público que tu página aunque temáticamente no tengan nada que ver)

- Buscas los contactos en los medios (no todos los periodistas son igual, algunos están más abiertos que otros, los detectas echando un ojo a los artículos que firma cada uno y buscando aquellos que han demostrado cierta sensibilidad hacia cosas similares a las que tu haces)

- Les llamas para avisarles de que les envías la nota. Se la envías y finalmente les llamas por tercera vez para asegurarte de que la recibieron y ver que les parece. Este feed-back personal es importantísimo. No hace falta que los periodistas te hagan un sesudo análisis. Lo notarás en su tono de voz.

- Es importante hacer un seguimiento de medios para ver dónde salió. Si lo que estás promocionando es la web de una PYME que presta servicios a nivel local, mi recomendación es que además prepares un dossier pequeño (4 o 5 páginas con los recortes e impresiones de las webs y las revistas) lo fotocopies y dejas unos cuantos en lugares de reunión social de la zona (bares, peluquerías, tiendas etc).

- Si repites esto cada dos o tres meses por ejemplo, "fabricando" noticias, es posible que te acaben llamando para alguna entrevista o similar. Y en cualquier caso tu objetivo estará cumplido. Te sorprenderás de como aquel artículo de una web especializada en el que apareciste, aparece "clonado" en media docena de webs meses más tarde. De la mayoría te enterarás gracias a Google :)

ALGO MEJOR QUE UN BANNER... HAZTE AMIGO DE TI MISMO

Crea tu propio anillo de webs. No, no hace falta que te mates maquetando y haciendo diseño gráfico. Basta con que escribas una historia divertida en html del más básico y la cuelgues de una página gratuita de Yahoo! o Geocities. Cuenta las anécdotas de tu web, hazte un blog... lo que quieras.

Es importante que desde él te des enlace y que el texto de ese enlace sea exactamente el de la palabra para la que has optimizado tu página. Si haces varias y se enlazan entre si y con tu página principal habrás avanzado mucho y verás como todas van creciendo en popularidad al mismo tiempo. He realizado muchos experimentos de este tipo (el más divertido y complejo seguramente www.geocities.com/ugarte_leyenda_urbana ) y puedo asegurar que suelen dar excelentes resultados.

SUBDOMINIOS

Otra forma de aumentar por ti mismo tu popularidad es dividiendo o complementando tu web con otros dominios o subdominios. Si estos incluyen la palabra clave en su nombre mejor que mejor. Es la forma de "autoreferencia" que mejores resultados da. Puedes usarlo para promocionar eventos especiales o hacer "suplementos". En la estrategia de posicionamiento de www.piensaenpalm.com usamos tour.piensaenpalm.com.

HACIENDO AMIGOS

El objetivo de una estrategia de marketing en la web orientada hacia posicionamiento es conseguir que otras páginas nos den enlace, a ser posible textual con el término de búsqueda que queremos optimizar. El único objetivo alternativo es que en lugar de textual sea una imagen que contenga el término clave en el texto alternativo.

Antes que nada y una vez más, hay que recordar que hay que tener cuidado con las "granjas de enlaces" y con todos esos listados de urls en los que nos dan de alta cuando contratamos cosas tipo "Alta en 3000 buscadores".

La metodología de este tipo de campañas suele ser la siguiente:

- Hacer un directorio de todas las páginas relacionadas con el tema de la nuestra.

- Localizar a las mejores y a las de popularidad más alta

- Escribir a sus webmaster y pensar juntos, uno por uno, qué hacer para mejorar el posicionamiento de ambos: desde un simple intercambio de microbanners en portada (como hacen todos los blogs) hasta intercambio de contenidos.

Si tienes un directorio es tanto más fácil:

- Eliges las mejores páginas (que suelen coincidir con la popularidad más alta) las destacas dentro de tu directorio

- Envías a los autores un minibanner con el código ya preparado para que te de enlace según tus objetivos. Este minibanner tiene aportar algo a la página que lo recibe, tipo "Web recomendada por..." o "Web destacada por..."

- Incluso, si no indexas todas las páginas que lo solicitan (lo cual es más que recomendable), sino que realizas una cierta selección, cabe que a las no destacadas también les envíes un pequeño minibanner tipo "Web reconocida por su utilidad en el tema X por...". Un vistazo a los vínculos de referencia de www.guiadeenfermeria.com basta para darse cuenta de lo bien que esto funciona, lo que explica que cada vez más sitios comerciales incluyan directorios especializados que promocionan páginas personales del mismo tema desde su propio sitio.

Envía tus mejores artículos a otras webs

¿Parece una locura? No. Al final te traerá más lectores. En la web la generosidad paga y enviar los artículos a otros sitios pidiendo que se de enlace a tu web no te resta visitantes ni lectores, sino todo lo contrario. En el peor de los casos habrás aumentado tu popularidad y nada más. Lo normal es que si alguien lo lee en otras webs y le gusta quiera ver más y vaya a la tuya luego. De modo que ganarás popularidad, tráfico y posicionamiento ¿Hay algo mejor?

Microbanners

Intercambiar microbanners, como hacen todos los blogs es al final una estrategia util y sencilla pero bastante efectiva para hacer en gran número. Su pequeño tamaño nos permite tener a una docena de otras webs y recibir sus visitas además.

Herramientas para otros webmasters

El mejor ejemplo es seguramente http://www.guiadeenfermeria.com/tusite.htm aquí los usuarios de este sitio que tengan webs de enfermería obtienen una serie de herramientas (chat, buscador especializado y ofertas de trabajo en enfermería) que agregan valor a su propia página personal pero que a las finales generan enlaces optimizados para la palabra "enfermeria"

Parte IV

Cosas que jamás hay que hacer

1. Texto invisible

Un viejo truco cuya dudosa efectividad duró poco. Dudosa porque originalmente la gracia estaba en conducir mediante buscadores a un público que buscaba otra cosa hacia nuestra página. Lo normal era esconder la palabra "sexo" por toda la página dándole un color a la fuente igual al fondo.

Esto se complementaba con abundantes (y casi siempre inútiles metatags) igualmente malintencionadas.

Eran los tiempos de Altavista y a los ingenieros de esta compañía no les hizo ninguna gracia. Normalmente las páginas que incluyen texto y fondo de igual color en alguna de sus partes son sistemáticamente baneadas y excluidas de las mejores posiciones de la página de resultados... durante mucho tiempo.

2. Abuso de palabras clave

Otra técnica animada incluso por algunos "expertos" fue crear páginas falsas destinadas a captar la atención de los buscadores y verdaderamente saturadas de la palabra objetivo con enlaces a la página a promocionar. Fue muy popular y amenazó seriamente la utilidad de los buscadores, incluso llegó a haber programas comerciales (todavía se venden) que servían para producir en serie páginas así. La respuesta de los buscadores fue contundente: introducir en el algoritmo de indexación penalizaciones por abuso de palabra clave. Especialmente dificultoso es Google, quien penaliza incluso la aparición de la palabra clave en la misma fila de tabla. Este exceso de celo deja pocas alternativas a cambiar el diseño de portadas hechas a base de tablas anidadas. El ejemplo que más me duele es www.saludytecnologia.com, penalizado por Google para el término "salud" por estar todas las cajas visibles en la portada divididas en dos celdas de una misma tabla. Lógicamente la palabra salud se repite "en la misma fila", ya que toda la portada es una misma fila... y lógicamente www.saludytecnologia.com pierde cientos de visitas al día.

3. Páginas de bienvenida

Poner como página principal de tu dominio una página de bienvenida o una bonita (y pesada) animación en Flash es uno de los errores más típicos y graves que se pueden cometer en el mundo del diseño web. En primer lugar dificulta la usabilidad claramente obligando como mínimo a un click de más, cuando no a esperar un tiempo de descarga inútil. Está comprobado que poner una página de bienvenida (elección de idioma, animación, etc.) hace perder entre un 40 y un 60% de visitas a un sitio.

Pero de postre ofrece como página principal a los buscadores una página que para ellos está prácticamente vacía de cualquier contenido asociable a un término de búsqueda.

4. Redireccionamientos automáticos consecutivos

Esto si que fue una peste. Aún hay unas cuantas páginas empeñadas en freír a cookies a los visitantes antes de ofrecerles nada. El ejemplo que personalmente más me duele es www.meliaviajes.com quien retrasa continuamente su ascenso en Google por el simple motivo de que lleva al robot a través de dos páginas vacías a la página de inicio real... Y no hay bot que sobreviva a más de una redirección.

5. Flash y páginas dinámicas (la internet invisible)

Afortunadamente "la internet invisible" es cada vez menor. Google ya puede leer ficheros PDF e incluso páginas PHP confeccionadas bajo ciertas premisas.

El formato Flash difícilmente dejará de ser invisible a los robots. Flash es un formato gráfico. Aunque leamos texto, lo que nos muestra, a diferencia del html no es texto sino imagen con forma de texto. Igual que nosotros no podemos copiar el texto de una animación Flash y llevárnoslo al bloc de notas, los bots no pueden separar el texto del resto y mandarlo a su base de datos. Del mismo modo, las páginas que se confeccionan en el momento de solicitarlo el usuario, sacando la información de una base de datos, no pueden ser indexadas.

Para evitar esto existen programas de gestión de sitios que en vez de "sacar" los datos de la base en el momento, generan una página estática cada vez que alguno de los editores incluye contenido nuevo. Los hay gratuitos y muy potentes tanto en PHP como en Perl.

6. Enviar reiteradamente la misma URL al buscador

El proceso de alta es mucho más delicado de lo que parece. Y no sólo en los directorios, dónde al otro lado hay humanos, sino en los buscadores. Prácticamente todos vetan tanto los intentos de enviar las altas automáticamente por programas ajenos como aquellas URLs que reciben más de una vez en el mismo día e incluso semana.

La mejor recomendación es ser discreto y encomendarse al dios de los robots para que nos visite no sólo gracias a nuestra invitación sino a que una página que visite le de enlace a la nuestra.

Conclusiones

El Arte del Posicionamiento

Con las últimas 9000 palabras espero haber transmitido bien en qué consiste posicionar una página en buscadores. Es una disciplina que obliga a tener ciertas directrices en la cabeza incluso desde antes de ponerse a programar, incluso antes de reservar el dominio.

Es también un arte, un juego que tiene que ver con la imaginación y con la capacidad para transformar un sitio web en nodo de una red de otros sitios afines.

Por la pésima influencia del bombardeo de malos sitios webs comerciales que tuvo lugar entre 1998 y 2000, la mayor parte de los sitios web españoles son islotes encerrados en si mismos. Aquellos grandes portales, bancos y tiendas virtuales estaban construídos no sobre la lógica de la red sino contra ella. La web española del 2000 era un barco cuyos armadores no se hubieran preocupado de que flotara.

Las cosas cambian y las PYMEs, las páginas personales, los sitios comunitarios, en una palabra el "pensamiento red" va tomando poco a poco el protagonismo en el cementerio de dinosaurios. Temporalmente alejado el peligro de la audiovisualización del medio y el aplastante peso de la publicidad, la red vuelve a ser un espacio colaborativo y competitivo al mismo tiempo. Como nos muestran los buscadores es un espacio donde para ser competitivo hay que ser cooperativo. Recupera la magia.

No hay comentarios: