miércoles, 15 de agosto de 2007

TRUCOS Y SECRETOS DE LOS BUSCADORES

Cómo Registrar Su Sitio Web y Aparecer

Lo Básico
Selección de las Keywords
Meta Tags
Información Oculta
Keywords Invisibles
El Título
Conozca los Diferentes Buscadores
Cuáles Palabras Claves Funcionan ?
Páginas Múltiples
Cómo Me Registro en Estos Buscadores?
Siguiendo Su Progreso
Otras Lecturas

Lo Básico
Por qué preocuparse por los listados en los Buscadores? Es el “Pan Nuestro de Cada Día” de cada Web master. Usted escucha a todo mundo hablar de ello.
Cuál es la importancia?
Muy sencillo, si su sitio web aparece dentro de los primeros 10 lugares en los resultados de una búsqueda, las oportunidades de que sus páginas sean visitadas, se incrementan dramáticamente.
El concepto aquí es simple. Cuando alguien escriba una palabra clave o “keyword” relacionada con mi sitio web, yo deseo que mi sitio web aparezca por arriba de los demás. La idea es simple, pero hacer que esto suceda es algo complicado.
En éste texto encontrará información específica de las mejores técnicas disponibles y algo de sentido común. Usted necesita darse cuenta desde ahora, que no existe una solución 100% efectiva en esto. Usted nunca aparecerá en primer lugar en todos los buscadores todo el tiempo. Todo lo que puede hacer es utilizar las mejores técnicas y modificarlas de acuerdo a lo que yo he probado que funciona.
Y qué funciona? Eso es lo que le mostraremos aquí.
Ahora bien, si desea la manera fácil (puede ser un poco engañoso y frustrante), pero quiere estar muy bien ubicado, visite GoTo.com. Le ofrecerán una buena ubicación por la palabra clave o keyword de su elección. Y sólo pagará por el número de “clicks”, así que es un buen trato.
Antes de iniciar, a continuación encontrará algunas definiciones que le ayudarán a comprender mejor la información contenida en éste reporte y mejor su paso por la Internet:

Buscador (Search Engine)
Un sitio web que enlista páginas Web basadas en su contenido. Cada Buscador opera de manera diferente. Pueden basar sus resultados de acuerdo al contenido de las páginas, las etiquetas Meta (Meta Tags), el Título de la página, o la combinación de éstos elementos. Los Buscadores utilizan programas llamados spiders (ver spider abajo) para recabar la información de las páginas. Algunos de los Buscadores más populares son AltaVista.com, Excite.com, Infoseek.com y Lycos.com. (SearchHound es de los más recientes. Le permite buscar en 24 diferentes Buscadores al mismo tiempo, incluyendo su propia base de datos. Cuándo usted registra su sitio Web aquí, podrá hacerlo también en varios sitios más gratis. Es en definitiva, un buen lugar para iniciar).

Directorio
Es un sitio Web que categoriza los sitios Web de acuerdo a la información proporcionada por los usuarios. Un buen ejemplo de un Directorio es Yahoo.com. En éste caso, el contenido de las páginas Web nunca es incluido. Cuándo alguien realiza una búsqueda por una palabra clave, ésta es comparada contra la base de datos de sitios que contienen un título y descripción para un sitio Web en particular. Repito, éste sitio está estructurado por categorías y el título y la descripción son enviados por los usuarios (aunque en ocasiones Yahoo! cambia la descripción que usted subministra).

Spider
Un programa software usado por un Buscador para recabar información de las páginas Web. Los Spiders son configurados de manera diferente, pero todos ellos capturan información específica de una página Web. Algunos Buscadores capturan el título y la etiqueta Meta (Meta Taq) Description. Otros capturan el título y los primeros 1,000 caracteres del contenido de la página Web. Algunos otros sólo capturan las palabras claves o keywords dentro de la etiqueta Meta Keyword. Otros utilizan la combinación de todos éstos métodos.

Hits
Cada vez que se visita una página Web dentro de un sitio Web. Si alguien le dice que obtiene 1,000 hits al día, quizás no tenga mucha importancia. Por ejemplo, si ellos tienen 15 gráficos en sus páginas, cada vez que alguien entra a su página, ésta genera 16 hits (una por cada gráfico y otra por el documento HTML). Pregúnteles cómo obtuvieron ésta información y usted tendrá una mejor idea de lo que ellos quieren decir con ésa declaración. Esta información generalmente no tiene ningún valor para nuestros propósitos. Realmente no importa cuantas veces un gráfico en particular es utilizado.

Sesión de Usuario (User Session)
Cada vez que un usuario acceda a un sitio Web. Podrá ver todas las páginas del sitio, pero aún así se tomará como una sesión de usuario.

Página Visitada
Cada vez que un usuario visita una página en particular. Esto tiene más significado que un hit.

Archivos de accesos (Server Logs)
La mayoría de los servidores o “servers” mantienen archivos de acceso. Estos archivos contienen información acerca de cuáles páginas han sido visitadas, cuántas veces, de que página viene el visitante, la hora en que fue visitada, errores encontrados (si los hubo). Pida a su proveedor de hospedaje (hosting) que le configuren éstos archivos de acceso en su sitio Web. La mayoría de las compañías de hospedaje ofrecen alguna forma de análisis de estadísticas. Si aún no cuenta con un servidor web propio, le sugiero Virtualis Systems. Sus opciones de servidores web son excelentes y llenos de funciones, recursos y herramientas para hacer más fácil la administración de su sitio web.

Secretos de los Buscadores
Selección de las Keywords
El primer y más importante paso en la manipulación de los Buscadores es la selección de las palabras claves o keywords. Estas deben ser tanto relevantes como usadas frecuentemente.
Qué quiero decir con relevancia? Si usted tiene un sitio Web relacionado con “marketing” y su sitio web aparece en primer lugar en AltaVista.com como resultado de una búsqueda de “medicina alternativa”, usted obtendrá algunas visitas, pero no le harán ningún bien.
El término “medicina alternativa” es, de hecho, usada muy frecuentemente. Pero su relevancia con su sitio Web acerca de “marketing” está cuestionable.
Si usted está tratando de vender un producto o servicio relacionado con “marketing”, las visitas obtenidas por la palabra “medicina alternativa”, dudo mucho que deseen comprar su producto o servicio.
Ahora bien, si usted simplemente desea visitas por el simple hecho de obtener visitas (para vender espacios publicitarios en su sitio web), entonces no importa cómo o de dónde vienen ésas visitas. Vea la sección:
“Cuáles Keywords Funcionan.”
Si lo que busca son visitas relevantes (si usted vende un producto o si trata de atraer un grupo en particular con un interés específico), entonces necesita ser más cuidadoso en su selección. Visitas relevantes o calificadas incrementan las oportunidades de ventas y más oportunidades de visitas repetitivas.
En ésta sección le mostraremos cómo seleccionar las palabras claves o keywords. En las secciones siguientes le mostraremos como aplicarlas.

Esto puede no tener sentido para usted, pero obtendrá recompensas mas tarde.
Tomemos un caso de un sitio Web que promociona tomas de agua. La lista inicial de palabras claves que el propietario decidió, consistía en repetir 100 veces la frase “toma de agua”. Esto tiene sentido, no? Bueno, el estaría cometiendo varios errores con esto y no está tomando las grandes ventajas del poder de las palabras claves. Aquí algunas reglas que él está ignorando y como podría aplicarlas:
Uso de Plurales
Si usted pluraliza sus palabras, aquellos que busquen en singular y plural encontrarán su sitio Web. En éste caso él debería escribir “tomas de agua”.
Diversificación
Una sola palabra podrá atraer varias visitas, pero no todos piensan como usted. Trate de pensar cómo lo harían sus visitantes potenciales. En éste caso se podrían utilizar palabras como “plomerías”, “cocinas”, “baños”, “plomeros”, etc.
No Repita Excesivamente
Algunos buscadores ya filtran a los sitios Web que repiten palabras excesivamente. Yo recomiendo repetir de 2 a 5 veces y dejarlo de ésa manera. La mayoría de los buscadores reconocerán esto. Manténgase informado acerca de cambios en las políticas de los Buscadores.
Varíe La Forma
No
todos escribirán “toma de agua” como usted podría suponer. Para bien o para mal, hay mucha gente que buscará por “tomas-de-agua” o tal vez “toma AND agua”. Quizás parezca un poco tonto para usted, pero no lo es para algunas personas. En éste caso quizás no es muy importante, pero si usted ofrece cuentas de correo electrónico, sería una decisión inteligente de su parte utilizar “e-mail” y además “email”.
Use El Poder de las Combinaciones

Esto se refiere a la economización de espacio. Algunos Buscadores sólo revisan los primeros 250 caracteres o lista de palabras claves en las etiquetas Meta (Meta Tags). Para utilizar el espacio más eficientemente usted puede utilizar 2 combinaciones. Por ejemplo, si el sitio de éste ejemplo también ofrece “agua purificada”, ellos también necesitan incluir esto en sus keywords o palabras claves. En lugar de escribir “tomas de agua” y “agua purificada”, pueden combinar los 2 y simplemente escribir “tomas de agua purificada”. De ésta manera las personas que realicen búsquedas con ambas combinaciones encontrarán su sitio Web y habrán utilizado menos espacio para así colocar más palabras claves.

Utilice Frases
En un reciente estudio conducido por uno de los mayores
Buscadores, se reveló que más del 80% de todas las búsquedas
fueron hechas con frases en lugar de una sola palabra.
Enfóquese En No Más de Cinco Palabras o Frases Por Página
Si trata de enfocarse en más, su página perderá relevancia para todas las palabras utilizadas. Cada Buscador revisa sólo cierta porción de su página Web. No desperdicie espacio! Entre más páginas tenga su sitio Web, más palabras claves podrá utilizar de manera enfocada.
Ahora, tómese un momento para escribir las palabras o frases claves relacionadas con su sitio Web. Una vez que tenga la lista, pregúntese usted mismo: “Que buscará alguien que se beneficie de mi sitio Web? Entonces escriba los resultados.
Muestre la lista a un amigo o compañero y pregúntele si tiene algo que agregar a la misma.
Una prueba interesante puede ser preguntarle a la gente la pregunta anterior sin mostrarles su lista. Pregúntele a cuantas personas pueda. Compare los resultados. Las frases o palabras claves que más veces se repitan, pueden ser las más usadas también en los Buscadores.
¿Esta emocionado? ¡Debería estarlo! ¡Usted está en camino de generar un tráfico fenomenal!

Meta Tags
Aquí veremos el primer uso para la lista de palabras claves que usted ya generó.
Las etiquetas Meta o Meta Tags son lo más básico en la manipulación de los Buscadores. Algunos Buscadores utilizarán éstas etiquetas Meta para recabar información de los sitios Web y darles más valor que el contenido de las páginas en sí.
De tal manera que, si la primer línea de texto en su página Web dice “La Página de Promoción Web de Juan” y en la etiqueta Meta ‘Description” dice “La Página de Cocina de Maria”, algunos Buscadores pensarán que se trata de una página de cocina y no de promoción Web.
Existen dos principales etiquetas Meta reconocidas por los Buscadores:
description y “keywords. Estas etiquetas necesitan estar ubicadas en la sección “head” de su documento HTML. Esto es, necesitan estar entre las etiquetas y . Si usted no entiende HTML, no se preocupe, sólo Corte y Pegue las siguientes líneas de código entre las etiquetas y de su documento y usted estará a salvo.
Las etiquetas deben verse así:
content=’ Descripción de su documento va aquí.> palabras o frases claves aqui?>
Es así de simple! Recuerde, algunos Buscadores verán la relación entre sus etiquetas meta description”, “keyword”, titIe y el texto de su página Web. Así que trate de utilizar las mismas palabras o frases claves en cada una de ellas. Esto es, si su lista de palabras claves contiene: “plomeros plomería tomas de agua”, asegúrese de que sean utilizadas también en el título, descripción y texto de su página Web, además de en la etiqueta “keywords.
Recuerde entonces que cada Buscador es diferente. Algunos sólo utilizan la primera línea del texto. Esto es, el texto que sigue inmediatamente después de la etiqueta en su documento HTML.
Otros usarán una combinación de todas y listarán su página por la consistencia, según el texto, título, primeros caractéres del documento, las etiquetas “description” y “keywords” y así obtener mayor relevancia.
Recuerde, ésta regla sólo aplica a ciertos Buscadores. Cada uno es diferente!
Aprenda más de los Buscadores y de cómo funcionan estudiando los resultados de búsquedas que usted lleve a cabo. Refine sus tácticas y vuelva a registrarse. (También vea “Siguiendo su Progreso”)

Información Oculta
Quizás ya se haya dado cuenta que será muy difícil incluir todas sus palabras claves o keywords en la primera parte de su página Web.
Especialmente si usted utiliza gráficos en la parte superior de su página Web.
Existen muchas páginas que simplemente escriben su lista de palabras claves en la parte superior de la página. Usted tendrá dificultades en hacer esto de manera estética.
Existen varias maneras de lograr esto, pero la más invisible a los visitantes es colocar “información oculta” dentro de un comando llamado “hidden input”.
Estos comandos necesitan colocarse dentro del texto de su página web, esto es entre el y y se hace de la siguiente manera:
/>lista de palabras o frases claves va aquí>
Algunos Buscadores reconocerán esto y algunos otros no. Lo mejor de todo es que es totalmente invisible a los usuarios, y los Buscadores que lo reconocen, le darán tanta importancia como si fuera parte del texto normal del documento Web.
Esto debe hacerse inmediatamente después de la etiqueta , antes de cualquier otra cosa. Algunos Buscadores verán solamente los primeros 2,000 caracteres en su documento Web, así que tiene que colocar ésta etiqueta antes de cualquier imagen.
Advertencia: Algunos Buscadores penalizan el uso de ésta táctica! Yo no usaría ésta táctica en todas mis páginas Web. Inténtelo en una o dos y vea los resultados. Si esto no ayuda, no lo use! Recuerde, los Buscadores están cambiando sus reglas todo

el tiempo!

La única manera de saber qué es lo que funciona es probar, probar y probar. Si usted encuentra una fórmula que le funciona, úsela otra vez. Mantenga un seguimiento estrecho de lo que utiliza.

Keywords Invisibles
Sabiendo que algunos Buscadores no reconocen (o penalizan) los datos contenidos dentro de los campos , nos preguntamos: cómo podremos atacar estos Buscadores sin afectar la imagen de nuestras páginas?
Las palabras claves o keywords invisibles pueden ser la solución. Esta táctica también es considerada como “poco ética” y puede ser penalizada por algunos Buscadores.
Esta táctica se refiere a escribir texto dentro de su página Web pero del mismo color que el fondo (background) de la misma. Estas palabras pueden ocupar algo de espacio, pero no son visibles a los visitantes a sus páginas, pero si son visibles a los spiders o robots utilizados por algunos Buscadores.
Por ejemplo, si el fondo (background) de una página en particular es de color blanco, esto estará especificado de la siguiente manera:

Debe asegurarse de que el texto de sus palabras claves sea del mismo color que el fondo de la página. Puede lograr esto cambiando el color de las letras:
=-2>Sus palabras claves aquí
Estos son algunos colores básicos:
Negro = 000000
Blanco=ffffff
Rojo=ff0 000
Azul=0000ff
Amarillo=ffffoo

Recuerde que a diferencia del texto oculto (hidden), el texto “normal” ocupa espacio en su página Web. Usted habrá notado que en el ejemplo anterior utilizamos un comando: size=- 2. Esto especifica que el texto sea de lo más pequeño posible. De ésta manera usted podrá colocar más palabras o frases claves sin afectar el diseño de su página.
Juegue un poco con ésta táctica y la comprenderá mejor. Recuerde que el texto en la parte superior de la página suele tener mayor efectividad, que si lo coloca en la parte inferior de la misma.
Advertencia: Algunos Buscadores penalizan ésta táctica. Siempre pruebe antes de llevar a cabo una u otra táctica (vea Siguiendo su Progreso). Una alternativa posible que algunos webmasters utilizan es la de escribir el texto con un color apenas un poco visible a los visitantes a su página, pero los Buscadores la verán con un color diferente.

El Título
Uno de los más importantes puntos de sus páginas Web es El Título. Y con esto no me refiero al título que usted ve en la parte de arriba de su página Web, sino a la etiqueta title del documento HTML. Generalmente aparece en la parte más superior de su navegador.
Esta etiqueta está dentro del encabezado (“ y ”), y se ve de la siguiente manera:
(“

Usted puede utilizar algo así:

“//

Recuerde no repetirlo más de 5 veces!
Para algunos Buscadores la segunda opción será 5 veces más relevante que la primera opción. Alguien realizando una búsqueda de “diseño de páginas web” tendrá más oportunidad de encontrar la página con el segundo ejemplo.
Advertencia: La repetición del título es considerada también como poco ética. Algunos Buscadores pueden penalizarlo por ello. Sin embargo algunos Webmasters han encontrado ésta táctica muy efectiva. Prudencia y precaución es recomendada.

Conozca Los Diferentes Buscadores o Search Engines
Podríamos pasarnos mucho tiempo desarrollando el tema de los Buscadores y saber que Buscadores utilizan cuales reglas para listar documentos.
Pero en mi experiencia, ésta información generalmente no es muy confiable. La mayoría de los Buscadores son muy “discretos” acerca de las reglas que utilizan para listar documentos. Algunos publicarán una regla o dos y usarán otra. Algunos otros cambian sus reglas todo el tiempo.
La única manera confiable de conocer como funcionan los Buscadores o Search Engines en un momento dado, es comparando resultados!
(La manera mas fácil para hacer esto la encontrará en Siguiendo Su Progreso)
¿Qué tienen en común? Los primeros lugares cuentan con extensas etiquetas Meta de palabras claves? Cuentan con un largo y descriptivo título y palabras claves?
Utilizando éste método, usted podrá conocer que Buscador presta mayor atención a cierta parte de los documentos en un momento dado. Modifique sus páginas de acuerdo a los resultados de sus investigaciones y registre sus páginas. Una vez que sus páginas son monitoreadas por los spiders, quizás transcurra algún tiempo antes de que sean agregadas automáticamente.
Una manera muy efectiva de realizar éste proceso de investigación y registro es utilizando el software WebPosition Analyzer (!muy recomendado!)

¿Cuáles palabras claves (keywords) funcionan?


¡Buena pregunta! Que palabras claves atraerán a más personas? Bueno, como ya lo mencioné anteriormente, esto depende de cuales son sus metas a lograr. Lo mas probable es que usted no esté buscando solamente visitas, sino visitas calificadas o relevantes! Esto quiere decir que usted quiere visitas que se interesen en lo que usted está ofreciendo.
Existen listas de palabras claves más comúnmente usadas. Estas generalmente consisten de palabras como:
sexo, desnudos, adultos, erótica, chat, juegos, y más
recientemente, mp3, entre muchas otras.
La teoría dice: si yo lleno mi página de palabras claves como ésas, lograré más visitas. Ya que ésas son las palabras claves más usadas, mis páginas serán más vistas. Bueno, siento desilusionarlo, pero esto es erróneo por dos razones:
El número de personas utilizando ésta estrategia es tan alto, que difícilmente su página aparecerá en primero o aún en el lugar 100!
Si alguien está buscando pornografía, ¿cree usted que ellos pasarán más de un segundo en su página de plomería?
Probablemente se trate de algún adolescente que no tiene dinero suficiente como para comprar sus productos.
Esto no quiere decir que nadie haya usado ésta estrategia de manera efectiva en el pasado. Esas son las excepciones a la regla. En lugar de llenar su página con palabras que no tienen relación con el contenido real de sus páginas, utilice palabras relacionadas a sus páginas.

Así que, ¿cuáles palabras claves funcionan?

Aquellas palabras claves usadas en los Buscadores por alguien que está interesado en sus productos o servicios.
¡Vale la pena decirlo otra vez!
Aquellas palabras claves usadas en los Buscadores por alguien que está interesado en sus productos o servicios.
Usualmente esto dependía de usted, pero eso ya ha cambiado. Existen Buscadores que realizan encuestas e investigaciones de las palabras claves mas utilizadas por la gente de diferentes sectores y venden la información a sus suscriptores. Tal es el caso de SearchHound.com y de GoTo.com
Con ésta estrategia, no sólo aumentará drásticamente sus posibilidades de lograr mayores visitas, sino que además lo mantendrá en los primeros lugares.
Haga el ejercicio nuevamente que aparece al final de la Selección de Keyword s


Páginas Múltiples
Ya he mencionado anteriormente que existe otra solución al problema del criterio que utilizan los Buscadores para indexar páginas web. Usted no puede satisfacer a toda la gente todo el tiempo! Entonces, qué puede hacer?
Si cuenta con el espacio web para hacerlo, diseñe páginas web separadas y que cumplan los requisitos de los Buscadores o Search Engines más importantes. La idea aquí es tomar su página principal ‘1ndex y crear varias copias de la misma, pero cambiando los componentes invisibles para satisfacer a cada Buscador. Ejemplo: index1.html, index2.html, index3.html, etc.
He aquí los pasos a seguir:
Visite el Buscador al que se está enfocando. Haga una búsqueda de algunas de sus palabras claves. Compare los primeros cinco lugares y vea que tienen en común entre sí. Aplique esto a una de sus páginas “extras” y regístrela! Repita éste proceso para todos los Buscadores importantes.
Existen varios programas software que harán esto por usted, así como registrar sus páginas a muchísimos sitios. Uno de ellos es Global
PromoBot:
http://foreverweb.com/cgi-foreverweb/spider click.cgi?1M2861
El software es también un excelente programa de registro de sus páginas web hacia mas de 1,000 sitios en Internet. Si usted quiere resultados, éste programa es algo imprescindible para usted.

Recuerde que algunas de sus páginas pueden haber cambiado de lugar desde que fueron indexadas por los spiders. En casos así, la información será errónea. Es por ésta razón que es importante el comparar por lo menos los primeros cinco lugares. Si usted sólo revisa el número uno, la información puede estar errónea. Compare lo que tienen en común entre sí y aplíquelo a su página y obtendrá un mejor lugar en ése Buscador.
Otra manera de multiplicarse aún más, es crear páginas separadas para cada grupo de palabras claves. Por ejemplo, si existen varios grupos de personas interesadas en su producto (empresarios, diseñadores, principiantes de HTML, etc.), quizás usted quiera crear un grupo de páginas para cada uno de éstos grupos de interés.
Para clarificar, si usted está intentando atraer a 3 diferentes grupos de personas y quiere atacar 6 diferentes Buscadores, usted deberá crear 18 páginas distintivas. Esto incrementará sus visitas relevantes considerablemente. (Vea Siguiendo su Progreso)

Como Registrarse?
En los viejos tiempos de la Internet (en términos de Internet, hace 2-3 años) la gente podía registrar sus páginas una a una a los diferentes Buscadores, Directorios y sitios de Links gratuitos.
Mas tarde, algunos empresarios inteligentes desarrollaron servicios para registrar los sitios web para los Webmasters. Afrontémoslo, cuantos de nosotros tenemos el tiempo necesario para registrar nuestras páginas una por una en los más de 1,000 Buscadores, Directorios y demás? “Alguien lo hará por mi? Grandioso!”
El problema aquí es que algunos servicios son muy caros por lo que ofrecen. Quien pagaría $200 y hasta $1 ,000 dólares para gastar en el registro, para la cuál ni siquiera sabemos si funcionará?
Entonces llegaron los programas software de registro. Estos prometen llevar a cabo dicha tarea de registro de manera más simple y económicamente. El problema era que la mayoría de los programas eran poco efectivos o no registraban nuestras páginas en los diferentes Buscadores.
Bueno, los tiempos han cambiado (para fortuna nuestra!) y existen dos excelentes programas automáticos en el mercado. Uno es Global PromoBot y el otro es Submit Wolf.
Existen muchos programas en el mercado similares, pero éstos son los dos que yo he encontrado más efectivos. Otros programas similares son:
Añadir, Spider, etc.
Ahora bien, no me interprete mal. Todos los programas de registro tienen alguna parte “débil”. Sus probabilidades de ser agregado a Yahoo! son

mínimas (o nulas) si utiliza éstos programas, pero son excelentes para el resto. En el caso de Yahoo!, usted DEBERA registrar su sitio web manualmente visitando el sitio de Yahoo! y siguiendo las indicaciones al pie de la letra!
Global PromoBot no registra sus páginas en tantos sitios como lo hace Submit Wolf, pero cuenta con otras características muy interesantes que bien vale la pena tenerlo. El único problema de Submit Wolf es que tiene que pagar por las listas conteniendo más sitios para registrarse.
Global PromoBot por el otro lado, cuenta con actualizaciones de por vida del producto, incrementando así el número de sitios y mejoras en el proceso de registro. Esto es una buena razón para obtenerlo.
Ambos programas ofrecen versiones gratuitas de prueba por 30 días y el precio es muy accesible.

Siguiendo su Progreso
Ya mencioné anteriormente que la mejor manera de conocer como funciona cada Buscador es revisando los resultados de varias búsquedas conducidas en cada uno de ellos. Comparando los resultados y aplicar los resultados de sus investigaciones a sus páginas web.
El problema aquí es que puede ser muy difícil administrar cuáles cambios ha hecho y qué efectos ha obtenido de dichos cambios en cada una de sus páginas!
Una manera efectiva de hacer esto es crear una hoja de trabajo (En Excel o similares) de cada una de sus páginas web y tomar notas de los cambios que ha hecho, en que Buscadores se ha registrado y que efectos ha notado en cada cambio.
Suena como un trabajo de locos, ¿verdad? ¡Pues lo es! Primero usted tendrá que visitar cada Buscador, llevar a cabo algunas búsquedas, revisar las páginas que aparecen en los resultados de ésas búsquedas, aplicar resultados a sus páginas, registrar sus páginas, ver los resultados, hacer cambios. Además deberá hacer los cambios a su hoja de trabajo mientras todo esto sucede! Wow!
Se imagina haciendo todo esto por cada una de sus páginas y en todos los Buscadores? Usted se pasaría días y semanas intentando quedar actualizado! (Recuerde que algunos Buscadores tardan hasta 6 semanas en indexar sus páginas).
Bien, pues no se preocupe! Existe un programa llamado WebPosition Analyzer que hará esto y mucho más por usted!

Páginas en los Buscadores mas importantes, sino que además le dará sugerencias para mejorar sus listados en dichos Buscadores! Además, genera un reporte detallado y le permite comparar sus resultados, y por si fuera poco, le dará una alerta si sus posiciones han bajado!
Lo que realmente separa a éste programa de la competencia es su característica de crear “Misiones”. Le pide que proporcione cuáles son sus metas específicas y le ayudará a lograrlas!
Por ejemplo, digamos que usted quiere estar dentro de los primeros 10 lugares en los resultados de Excite por la frase clave “diseño de páginas web”. Este programa le dirá paso a paso lo que debe hacer para lograrlo.
Esto le ayudará no solo a tener más visitas, sino visitas calificadas! Puede descargar a su computadora una versión de prueba de éste excelente programa desde el sitio web de WebPosition Analyzer.
Si usted utiliza éste programa en combinación con los dos programas de registro que le recomiendo en éste libro electrónico, no deberá tener ningún problema recibiendo miles de visitas calificadas.

Enviado por Ángelo angelo123@hotmail.com

© 1999-2001 D.R. Todos los Derechos Reservados.
MercadotecniaEnlnternet.com
Usted puede distribuir éste E-Book libremente si se deja intacto en su contenido. Usted lo puede ofrecer gratuitamente o incluirlo dentro de un paquete que usted venda. Puede colocarlo en su sitio Web, obsequiarlo a los lectores de su E-zine o Newsletter, o bien en su Foro de Mensajes si lo desea. Sólo asegúrese de dejar el contenido intacto, incluyendo ésta firma. Autor: editor(MercadotecniaEnlnternet.com http://MercadotecniaEnlnternet.com.


martes, 14 de agosto de 2007

TRUCOS PARA POSICIONAMIENTO

Si pensabas que teniendo una web ya estaba todo solucionado... nada más lejos de la realidad.....

¿Acaso cuando compraste el coche pensaste que no necesitaría gasolina?

Por supuesto que no.

POSICIONAMIENTO EN BUSCADORES,

EL CARBURANTE DE TU WEB

Dicen las encuestas que más del 90% de los usuarios de Internet utilizan los buscadores y portales habitualmente para llegar a localizar aquello que buscan.

Hasta aquí todo correcto, y sería suficiente con estar dentro de las listas de cada uno de los buscadores, si no fuera porque los usuarios rara vez pasamos de la posición 30 en una búsqueda.

¿Por qué?

Básicamente por dos motivos:

1. El primero, porque no disponemos del tiempo necesario para visitar cientos o miles de webs que tratan sobre un tema determinado.

2. Y el segundo, porque las probabilidades de que encontremos lo que buscamos aumentan rápidamente conforme vamos visitando webs del listado resultante de una búsqueda.

¿Y entonces, qué debemos hacer?

Sólo hay una respuesta a esta pregunta.

Debemos hacer que nuestra web aparezca entre las 30 primeras posiciones. Y por supuesto, cuanto más arriba estemos, muchas más posibilidades de ser visitados tendrá nuestra web.

LAS VISITAS

¿Cuántas visitas recibes actualmente?

Sean muchas o pocas, lo único cierto es que posicionando tu web, el número de visitas empezará inmediatamente a incrementarse de forma espectacular.

Pero lo más importante es que estas visitas son de máxima calidad.

¿Y eso por qué?

Pues debido a que el visitante busca en un buscador el producto/servicio que nosotros vendemos. No se trata de visitas de paso, sin valor. El usuario busca activamente ese producto/servicio y debemos satisfacer sus necesidades.

Además conseguirás reforzar tu imagen y tu presencia frente a tus clientes y frente a la competencia.

El posicionamiento en buscadores no es una opción, es algo imprescindible. Si queremos tener alguna oportunidad en Internet, no es posible desmerecer el tráfico que generan los motores de búsqueda.

EL TRABAJO DE POSICIONAR

Como se suele decir, este trabajo se encuentra entre el arte y la ciencia. Los buscadores disponen de unos algoritmos para la indexación de las webs que se dan de alta. Hasta aquí todo correcto, si no fuera porque son considerados secreto industrial y además son modificados continuamente.

Es por ello que lo más complicado de este trabajo consiste en mantenerse continuamente al día e informado para poder realizar los cambios necesarios y así no descender posiciones o recuperar las perdidas.

Si a esto añadimos el que cada buscador sigue sus propios criterios, nos encontramos con que aquellas acciones realizadas para conseguir un buen posicionamiento en un buscador pueden no servir para otro.

A grandes rasgos, cuatro son las acciones más importantes para conseguir un buen posicionamiento.

OPTIMIZACIÓN DEL CÓDIGO

Muchos de los buscadores disponen de unos programas llamados “robots” que se encargan de buscar por la red e indexar todas aquellas webs que se encuentran a su paso.

Para ello existen unos códigos (llamados METAS) que facilitan la información necesaria a los robots de los buscadores.

Pero estos códigos han perdido casi toda su importancia ya que se podía “engañar” muy fácilmente a los buscadores.

OPTIMIZACIÓN DE LA WEB

Estos mismos robots utilizan técnicas muy sofisticadas, de reconocimiento de textos, densidad de palabras, etc, que obligan a un diseño correcto de la web, tanto a nivel gráfico, de programación, gramatical, como de contenidos.

ALTA EN BUSCADORES

Este proceso es muy importante y en algunos de los más importantes buscadores un fallo en el procedimiento, o una mala optimización de la web, nos puede llevar a una demora de 4 meses para rectificar los errores o incluso la expulsión si consideran que se ha incurrido en prácticas prohibidas (SPAM).

MARKETING ORIENTADO AL POSICIONAMIENTO

Desde hace algún tiempo, los buscadores más importantes usan un sistema de indexación para posicionar que da mucha importancia al llamado LinkPopularity.

En definitiva, consiste en dar un mejor posicionamiento a aquellas webs que cuentan con otras webs que las enlazan mediante links.

Ello implica un trabajo constante para conseguir que muchas e importantes webs tengan links hacia la tuya.

Existen muchos sistemas para conseguirlo, pero hay que tener cuidado en no caer en prácticas consideradas ilegales.

El caso más conocido que usa este sistema es el buscador GOOGLE.

TIPOS DE ALTAS EN LOS BUSCADORES

Y DIRECTORIOS.

Dos son los modos de alta que se pueden realizar.

ALTAS MANUALES en buscadores y directorios principales. Son aquellas que se realizan de una en una rellenando los formularios de cada buscador/directorio, actualizados por personas.

El proceso de admisión puede tardar entre 1 semana y 4 meses aproximadamente, según el buscador, si bien existe en la mayoría de ellos una modalidad llamada express mediante la cual, pagando una cierta cantidad, te revisan la web mucho antes. Algunos ejemplos son: YAHOO, LYCOS, ALTAVISTA, YA.COM, etc...

ALTAS AUTOMÁTICAS en buscadores secundarios Son las que se realizan mediante programas especiales que se encargan de incluir automáticamente los datos de una web en sus bases de datos.

¿CUÁNTOS BUSCADORES / DIRECTORIOS HAY, Y CUÁLES SON LOS MÁS IMPORTANTES?

Posiblemente nadie sepa exactamente su número, aunque si que superan los 5000, si bien en cada país existen entre 8 ó 10 que concentran más del 80% de las búsquedas. En el caso de España, y variando con el paso del tiempo son:

LOS CRITERIOS DE BÚSQUEDA

Recuerde lo que hace al buscar algo en un buscador. Por ejemplo, si piensa alquilar un bungalow para irse este verano a la playa.

¿Qué concepto escribiría en la casilla de búsqueda?

¿”BUNGALOW”?

Supongo que cuando viera que hay 3.632.315 resultados de su búsqueda y que los 27 primeros hablan de nuevas contrucciones y compraventas, empezará a pensar que debe especificar un poco más.

¿Qué tal si pone ahora “ALQUILER DE BUNGALOWS”. Mejor, pero todavía salen 178.623 referencias.

Afinemos un poco más poniendo “ALQUILER DE BUNGALOWS EN LA PLAYA”.

Mucho mejor, ya sólo hay 31.281 donde elegir.

Y por fin llegamos a donde queremos, “ALQUILER DE BUNGALOWS EN LA PLAYA DE ALICANTE”. Esto es lo que andábamos buscando, esta es la idea, si bien es cierto que normalmente se suprimen los artículos y preposiciones, ya que los buscadores las ignoran, quedando la expresión más o menos así:

“ALQUILER BUNGALOWS PLAYA ALICANTE”

Esto explica claramente la importancia de la elección del criterio de búsqueda correcto.

Por tanto, a la hora de elegir los criteros con los que nos buscarán, deberías tener muy claras dos cosas:

Cúal es el producto/servicio que ofertamos?

Cúal es el tipo de cliente?

Hay una verdad que hay que conocer y asumir

“No podemos ser todo para todos”

Aunque internet llega a todo el mundo y a todo tipo de clientes, no podemos caer en la tentación de querer abarcarlo todo por que ello nos llevará a no conseguir buenos resultados.

¡Debemos especializarnos en algo si queremos posicionarnos bien!

Si su caso es el de un sitio web que oferta múltiples servicios/productos tenga claro que para posicionar bien cada uno de ellos habrá que trabajar sobre criterios de búsqueda específicos en cada caso e intentar posicionarlos por separado.

Por suerte, lo que ya se nota es una madurez en los usuarios de Internet. Dudo que muchos escriban “GRATIS” cuando lo que buscan son por ejemplo

“CUENTAS DE CORREO GRATUITAS”.

Por tanto, a la hora de elegir los criterios,

“ESPECIFIQUEMOS CUANTO MÁS MEJOR”

Imaginemos cómo nuestro potencial cliente escribiría el criterio de búsqueda.

¿Qué cree que pondría él?

Si da con el o los criterios que usaría la mayoría de su público objetivo, habrá acertado en la diana.

Tenga en cuenta que la mayor parte del trabajo de posicionamiento pasa por la elección de unos correctos criterios de búsqueda.

lunes, 13 de agosto de 2007

Posicionamiento: cómo decirles dónde está nuestra web.


En la prehistoria del marketing de posicionamiento en buscadores y de esto no hace tanto tiempo todos pensábamos que el secreto de lograr visitas a nuestras webs exigía enviar nuestras páginas a miles de buscadores en todo el mundo. Y que el modo de lograr buenos posicionamientos en los resultados tenía que ver con la frecuencia con la que estas páginas eran enviadas a dichos buscadores. Era el tiempo del “Envíe su sitio web a más de 50.000 buscadores”. Pensábamos que el envío continuo de páginas al mayor número posible de buscadores, junto con algo de “magia” en las palabras clave y en los metatags conjurarían el milagro de disparar el tráfico de nuestra web.

Hoy sabemos que, ni entonces ni desde luego actualmente, es necesario estar enviando nuestras páginas a los buscadores en los que queremos destacar de forma continuada. Aunque todavía hay muchas personas en la Red convencidas de que el proceso de envío de páginas a buscadores juega un papel clave en el posicionamiento conseguido en los resultados, la experiencia demuestra que el proceso de envío es simplemente un medio de hacer llegar a los buscadores nuestras páginas más optimizadas. Es decir, el hecho de enviar esa página no es lo que hace que la misma consiga un buen puesto en el buscador sino el proceso de optimización al que se ha sometido. Sin embargo, una vez optimizada, es necesario comunicar al buscador la existencia de dicha página, para que la añada a su índice lo antes posible. De modo que la optimización de la página es lo que logra un buen puesto, pero sin enviar la página al buscador, éste no saber que tiene que indexarla.

Así que son dos procesos distintos y necesarios. Así pues, comencemos por optimizar las páginas y, una vez alcanzado este objetivo, nos planteamos el proceso de envío. Por cierto, ¿en qué buscadores quiere lograr buenos resultados?

¿En 50.000, 15.000, 1.500 buscadores en todo el mundo? ¿O en los cuatro o cinco que van a enviar el 99% del tráfico a su web? Los buscadores están viviendo un proceso de concentración. Veamos cuáles son los más importantes.

Google

Google es el buscador más popular. En nuestra experiencia, aporta el 50% del tráfico total de una web, y hasta el 90% del tráfico referido por buscadores o directorios (incluyendo las versiones localizadas de Google así como los resultados servidos desde Google, por ejemplo, en Yahoo). Para conseguir que nuestras páginas aparezcan listadas entre sus resultados, el primer paso es rellenar el cuestionario de envío que está en su propia página web. Las instrucciones que ofrece Google son bastante sencillas: enviar sólo la página principal y Google puede rastrear el resto del sitio web. Sin embargo, enviar su web de esta forma no garantiza en modo alguno que su sitio será listado.

Google siempre ha preferido encontrar nuevos sitios web rastreando otras páginas ya existentes en su índice y siguiendo los enlaces desde allí. Si quiere incrementar sus oportunidades de ver su sitio web indexado, busque algunos sitios web de calidad y sitúe enlaces a su página web en ellos, si le es posible. Entre tres y cinco enlaces de calidad en esta fase “animará” a Google a incluir su sitio web en su índice. Google actualiza normalmente su índice una vez al mes, así que no se preocupe si pasan cuatro semanas y todavía no hay signo de sus páginas en el índice. Sin embargo, si después de 6 semanas su web todavía no está indexada, concéntrese en añadir más enlaces y en trabajar para ser incluido en Open Directory.

Yahoo

Hasta hace dos años, la mejor forma de aparecer listado en Yahoo era pagando la cuota de 299$ anuales para ser incluido en su índice. Sin embargo, en este momento, Yahoo obtiene sus resultados del índice de Google y aparecer en su directorio ya no es vital (aunque muchas personas prefieren aparecer en el directorio también). Así que en este momento, parece recomendable concentrarse en conseguir que Google incluya su página web en su índice, y esto debería ser suficiente para aparecer en Yahoo. Con la reciente adquisición de Inktomi por Yahoo, esto podría cambiar a corto plazo, ya que va contra las leyes del mercado que Yahoo esté sirviendo resultados de su principal competidor. Corren rumores ya sobre la inminente incorporación de la base de datos de Inktomi a los resultados web de Yahoo, en sustitución de los ofrecidos hasta ahora por Google.

Con la concentración bajo el arco de Yahoo de Inktomi, Overture, AlltheWeb y Alta Vista, es de esperar una guerra encarnizada de Yahoo por recuperar el trono de los buscadores que le arrebató Google.

MSN

Hay dos formas efectivas de incluir su web en los resultados de MSN (aparte, claro, de los enlaces esponsorizados). Puede enviar su web a Looksmart si desea encontrar su web listado en el Directorio de Sitios Web o puede optar por Inktomi para aparecer en la sección de “Páginas Web”.

Los resultados de Looksmart se muestra por encima de los resultados de Inktomi, así que si opta por una sola de las dos opciones, asegúrese de que sea Looksmart. Sin embargo, Inktomi es un crawler y es muy útil si su página web incluye gran cantidad de contenido o cientos de diferentes productos. Si alguien hace una búsqueda formada por varias palabras o un número determinado de modelo, será Inktomi el que tendrá el resultado, no Looksmart. MSN tenía programado para enero de 2004 abandonar su contrato con Looksmart, por lo que los resultados de Inktomi van a adquirir en MSN un mayor protagonismo. Aunque MSN está trabajando en la puesta en marcha de su propio directorio y reptante, no parece que sus resultados vayan a adquirir una mayor autonomía antes de finales de 2004.

AOL

AOL no tiene habilitado ningún modo de que usted pueda enviar sus páginas. AOL utiliza los resultados de Google, así que obtener un buen posicionamiento en Google es fundamental si quiere ser incluido en los resultados de AOL.

LOS DIRECTORIOS

Open Directory

El “Directorio abierto”, también denominado DMOZ, es una amplio directorio actualizado y mantenido por miles de editores voluntarios. Para añadir su página web a este directorio, busque la categoría más apropiada para su web y haga click en el enlace denominado “añadir URL”. A partir de ahí, se trata de seguir las instrucciones cuidadosamente. Cada categoría puede tener instrucciones específicas, a veces incluso cada uno de los editores ofrece sus propias directrices.

No intente escribir una descripción llena de docenas de palabras clave. Escoja 3 ó 4 de sus conceptos clave más importantes y escriba una breve descripción de entre 20 y 30 palabras que incluya estos términos. Los editores de DMOZ cambian a menudo las descripciones remitidas por los propietarios de las webs enviadas así que tómese su tiempo para escribir una buena descripción, de esa manera reducirá las posibilidades de que el editor se la cambie. Recuerde, los editores de DMOZ son voluntarios y no cobran por su trabajo, así que no espere ver su web incluido en sólo unos días. A veces puede llevar semanas, incluso meses.

Looksmart

Hasta no hace mucho, Looksmart exigía el pago de 299$ para garantizar que un sitio web fuera revisado por sus editores e incluido en su índice. Ahora, este directorio emplea su propia combinación de inclusión pagada y de revisión editorial. Se pagan 29$ para garantizar que los editores visitan su web y la añaden al directorio. A partir de la inclusión de sus páginas, tendrá que pagar 0.15$ por click para los primeros 5.000 visitantes que Looksmart envíe a su sitio web. A partir de esa cifra, el coste del click-through se ajusta dependiendo de su tipo de negocio (puede variar entre 0,23$ a 0,75$ por click). Lo bueno de este sistema es que usted puede establecer su presupuesto mensual para no gastar más de lo previsto (el coste mensual mínimo es de 15$).

Los crawlers

Hay muchos otros buscadores que debería incluir entre sus preferencias. Revisemos los más importantes:

Inktomi – provee resultados a Looksmar t, MSN, HotBoty Overture

Inktomi no tiene su propia interface de búsqueda pero entrega los resultados de su rastreador a muchos otros buscadores. La mejor forma de incluir su web en Inktomi es usar alguno de los servicios de inclusión pagada. El coste habitual es de 35• al año para el primer URL que se envíe y de 25• para cada URL adicional. La s uscripción es para un año y asegura tener el web listado en el plazo de 48 horas. Dos de los proveedores del servicio de inclusión pagada de Inktomi son Position Tech y Network Solutions.

Ask Jeeves

Ask Jeeves es un motor de búsqueda en expansión con muchos usuarios fieles. Los resultados del rastreador para Ask Jeeves son obtenidos desde el índice de Teoma. A menos que Teoma haya rastreado su website desde otro web que ya esté en su índice, la mejor forma de ser incluido es utilizar su servicio de inclusión pagada. Las cuotas están en línea con las de Inktomi y son de 30$ al año para el primer URL y 18$ para cada URL adicional. Los partners de inclusión de pago son Position Tech y Ineedhits.com.

Fast – provee resultados a Lycos y AllTheWeb

Fast es similar a Inktomi en que no posee su propia interface de usuario. Sin embargo, los sitios indexados por Fast se muestran tanto en AllTheWeb como en Lycos y Terra, así que enviar su web a Fast definitivamente vale la pena. Las cuotas son de 35• por año para el primer URL y 16• al año para cada URL adicional. Los partners de este servicio de inclusión de pago son Position Tech y Lycos InSite Select. Existe un descuento desde este último al dar el alta en Inktomi y Fast simultáneamente.

AltaVista

AltaVista ya no tiene la importancia, dentro del panorama internacional de buscadores, que tenía y tras la reciente adquisión por parte de Overture (a su vez adquirido por Yahoo) su futuro es incierto.

Si desea enviar su web a AltaVista puede utilizar su servicio de envío básico, que es gratis, pero muy lento, o puede usar su servicio de inclusión de pago que le costará 34.74• para la primera URL (sólo para 6 meses).

Netscape y iWon

Tanto Netscape como iWon obtienen sus resultados de Google.

Conclusión

Aunque algunos buscadores ofrecen servicios de envío de páginas gratuitos y otros pueden incluir su página si existen enlaces que apunten a ella desde otros websites ya listados, las directrices marcadas más arriba sintetizan la forma más eficaz y rápida de conseguir que su web sea incluida en los principales motores de búsqueda. Además de los considerados aquí, puede haber otros buscadores de ámbito regional –dependiendo del ámbito geográfico en el que se sitúa el mercado al que se dirige o sectorial –dependiendo de su tipo de negocio en el que debería considerar incluir sus páginas web. Esto debería ser más que suficiente para conducir una gran cantidad de tráfico cualificado desde los buscadores más populares hacia su web.

domingo, 12 de agosto de 2007

TECNICAS Y TRUCOS DE POSICIONAMIENTO WEB


Índice

Introducción: Verdad y mentira del posicionamiento en buscadores

Parte I: ¿Cómo funcionan los grandes motores de búsqueda?

1. Buscadores, directorios, arañas y otros bichos

2. Cómo lee un buscador un sitio web

3. El archivo robots.txt

4. Elementos que caracterizan una página desde el punto de vista de un robot

5. La asociación en la base de datos del buscador

6. Ordenando las páginas por importancia: el concepto de popularidad

Parte II: Estrategias para la asociación de nuestra URL a un término de

búsqueda

1. Algoritmos de asociación e ingeniería inversa

2. Elección de los términos clave

3. Optimización para un buscador (ej: Google)

4. Optimización para varios buscadores (ej: Google + Altavista)

Parte III: Compitiendo en la lista (estrategias de popularidad)

1. Análisis de la competencia

2. Autoreferencia

3. Directorios

4. Estrategias de enlace exterior: un poco de marketing on-line

Parte IV: Cosas que jamás hay que hacer

1. Texto invisible

2. Abuso de palabras clave

3. Páginas de bienvenida

4. Redireccionamientos automáticos consecutivos

5. Flash y páginas dinámicas (la internet invisible)

6. Enviar reiteradamente la misma URL al buscador

Conclusiones: El Arte del Posicionamiento

Introducción

Verdad y mentira del posicionamiento en buscadores El posicionamiento en buscadores es a la vez arte y técnica: construir u organizar páginas web de forma que aparezcan bien situadas en los buscadores. Cada buscador utiliza un algoritmo de indexación diferente que es permanentemente actualizado y mejorado. Estos algoritmos son considerados secretos industriales por las empresas que los crean. Esto hace que el posicionamiento en buscadores sea un auténtico ejercicio de ingeniería inversa.

Como cualquier hacker dedicado a la ingeniería inversa los verdaderos expertos en posicionamiento hacen cosas realmente "extrañas":

- Crean páginas de prueba o incluso dominios enteros con el único objetivo de determinar el comportamiento de cada uno de los motores de búsqueda.

- Descargan y analizan estadísticamente el código de las páginas

mejor situadas para una serie de términos de búsqueda frecuentes.

- Mantienen sus propios robots de análisis de resultados y ejecutan complicadas regresiones

Todo esto permite averiguar cosas como qué motores de búsqueda valoran meta tags, títulos, textos alternativos a las imágenes, popularidad de los enlaces, frecuencia de click-through, número de veces que las palabras clave aparecen en el texto, etc.

Ésta es la única forma de saber realmente qué valora cada buscador y tener las herramientas necesarias para optimizar la programación y el diseño de una página de entrada o un sitio web completo para su indexación en buscadores.

Muchos venden las conclusiones de sus trabajos lexométricos o las publican en informes confidenciales para empresas. La mayoría de las empresas que se anuncian como "expertas" en el posicionamiento no son sino compradoras en el mejor de los casos regulares- de alguno de estos informes. Que yo sepa, en España sólo PiensaenRed.com realiza sus propios análisis matemáticos y hace algo más que aplicar recetas algorítmicas.

Esto es especialmente valioso dado que los algoritmos cambian constantemente y los buscadores más importantes, como Google, reciben miles de peticiones de alta cada día. Cuanto más competitiva es la WWW, más difícil es conseguir una buena posición en áreas en las cuales hay muchos sitios rivalizando por la atención de los usuarios.

En un campo tan competitivo y al mismo tiempo tan opaco es natural que surjan todo tipo de desaprensivos: Algunas empresas de posicionamiento en buscadores aseguran un lugar entre los 10, 20 o 30 primeros del ranking de varios buscadores.

Mi consejo como especialista dedicado al posicionamiento desde mediados de los 90 es claro: No confíes nunca en alguien que te garantiza un ranking específico. O usan técnicas que pueden hacer que echen a tu sitio de los buscadores, o simplemente están jugando a vender éxitos fáciles (buenos puestos para condiciones de búsqueda muy específicas y poco populares). En ese caso, las supuestas "garantías" están de más, son simple humo. Otra promesa típica es darte de alta en más de 500 buscadores (¡o incluso más de 2000!). No te dejes engañar con estas cifras. es un timo. No te servirá para nada. Seguramente tú usas los mismos buscadores que todo el mundo. ¿Se te ocurriría usar alguno de los "más de 500 buscadores" que te ofrecen estas compañías (y que ni siquiera son buscadores, sino sitios de enlaces gratuitos)?

Hoy en día sólo Google genera directa o indirectamente más del 50% del tráfico comercial de la web. Si le añadimos Altavista y algún gran directorio como Yahoo!, vemos la escasísima función que juegan los "miles de buscadores" restantes.

Dos últimos consejos:

- En el mundo de habla hispana, directorios otrora importantes como Terra prácticamente han desaparecido de los "referrals". La fama o las visitas de los portales no dicen nada de la importancia de sus directorios o buscadores. De hecho la mayoría de ellos van pasando a entregar estos servicios a empresas como Google o Inktomi.

- No hay soluciones mágicas ni resultados instantáneos: los robots de búsqueda no pasarán cuando queramos ni las bases de datos se actualizarán de acuerdo a nuestros intereses. En este campo, como en tantos otros, la ley de Murphy es plenamente operativa :)

Parte I

¿Cómo funcionan los grandes motores de búsqueda?

1. Buscadores, directorios, arañas y otros bichos

Mucha gente piensa que Google y Yahoo! son esencialmente lo mismo... y se equivocan. El primero es un buscador ("search engine" en inglés) y el segundo un directorio.

En Yahoo! un grupo de personas llamados "surfers" recorren la web seleccionando sitios, comentándolos y clasificándolos en una base de datos según unos criterios más o menos homogéneos.

Efectivamente, luego existe un motor de búsqueda que busca en ESA base de datos. Una base de datos hecha por humanos, más pequeña por tanto que la de cualquier gran buscador, y que está formada por los datos introducidos por esos humanos (es decir, incluye valoraciones como "categoría" o "país")

En Google en cambio un robot (llamado Googlebot) rellena una base de datos primaria con el código de las páginas que visita. Un motor de búsqueda consultará en esa base cuando nosotros le preguntemos y dará resultados atendiendo a un complicado algoritmo que intentaremos comprender en siguientes páginas. La función de ese algoritmo es conseguir emular de una forma objetiva lo que los humanos hacemos de un modo instintivo: clasificar una página por temas, origen, etc. y listarlas jerárquicamente de acuerdo con su mayor o menor relación con el término buscado por el usuario.

El 50% del trabajo de posicionamiento se hace sobre el código de la página, preparándolo todo para que el motor de búsqueda nos destaque entre todas las páginas almacenadas en su base de datos.

El otro 50% del trabajo es una cierta forma de "marketing de red" cuyo objetivo es que el bot nos visite con cierta frecuencia y reporte en la base de datos lo importante que es nuestra página para otras muchas (incluidas otras de nuestro sitio) que la enlazan.

Repasemos un poco los conceptos:

Directorio: sitio web que gestiona una base de datos confeccionada por humanos. Esta base de datos almacena y clasifica en categorías URLs junto con sus comentarios

Buscador: sitio web que gestiona una base de datos confeccionada por robots. Esta base de datos almacena directamente el código de las páginas visitadas por los bots o parte de él.

Motor de búsqueda: programa que selecciona y jerarquiza resultados entre las entradas de una base de datos en función de unos términos y criterios de búsqueda.

Robot (cariñosamente bot): es un programa que navega la web yendo desde cada página a todas las que esta da enlace y enviando e incorporando el código o partes de él a una base de datos de referencia. También se les conoce como "crawlers", spiders o arañas.

2. Cómo lee un buscador un sitio web

Una vez que un robot entra en una página se "lanza" sobre el código buscando identificar una serie de zonas: la cabecera, el cuerpo... y dentro de ellas las etiquetas clave.

Sin embargo, esta "lectura" del código no tiene porque ser lineal. Google por ejemplo posterga el contenido de las tablas. En la clásica página en la que los contenidos aparecen enmarcados por un par de tablas anidadas, fuera de las cuales a penas queda la dirección de la empresa o el copywrite, lo primero que leería sería precisamente esto que aparece fuera.

¿Es eso realmente importante? Es cuando menos relevante. Como veremos una de las variables a tener en cuenta es la posición del término de búsqueda dentro del cuerpo de la página.

La "sensación" del robot a la hora de leer nuestra página será muy parecida a la que tengamos nosotros al leer la misma página desde un ordenador de bolsillo (ODB o PDA en inglés). Es una experiencia recomendable para programadores y diseñadores web: al no tener espacio para mostrar todo el ancho de página, rompe el contenido mostrando columna a columna.

Irremediablemente, lo primero que vemos de una web es un larguísimo e inútil menú y no la información que buscamos. El robot en cambio lee fila a fila, pero al anidar tablas en celdas de otras tablas mayores, hacemos que el orden de lectura del buscador sea diferente del que intuitivamente pensamos al ver la página en el navegador.

no es la primera bajo la etiqueta El orden es algo importante. Algunos robots incluso, buscan las cosas en un determinado orden y sólo en él. De modo que si por ejemplo, la etiqueta , no archivará en su base de datos el título de la web...

3. El archivo robots.txt

Muchas veces el problema no es sólo conseguir que nuestras páginas aparezcan indexadas en buscadores, sino que algunas de ellas no lo sean.

Para ello existe un protocolo alrededor del archivo robots.txt, que se coloca en la carpeta raiz de nuestro sitio web.

El archivo se edita con cualquier programa de bloc de notas como el Notetab y se compone de las siguientes líneas:

User-agent:

Disallow:

Tras "User-agent:" hemos de colocar el código del robot al que queramos prohibir la lectura de determinados documentos o directorios. El de Google por ejemplo es "googlebot" y el de Altavista "Scooter". Si queremos que la prohibición se haga extensiva a cualquier robot deberemos poner un asterisco.

Existe un listado completo de robots con sus especificaciones en http://www.robotstxt.org/wc/active/all.txt

Tras "Disallow" debemos especificar los directorios o documentos que queremos ocultar a la curiosa mirada de los robots seguidos del símbolo "/" Así si queremos que ningún robot husmee en nuestro dominio el archivo debería configurarse como:

User-agent: *

Disallow: /

Por el contrario, para invitarles a un acceso completo:

User-agent: *

Disallow:

lo que sería equivalente a crear robots.txt como archivo en blanco

Si quisiéramos excluirles de los directorios "secreto" y "confidencial"

User-agent: *

Disallow: /secreto/

Disallow: /confidencial/

Si queremos vetar a un robot en concreto (Google en este caso):

User-agent: googlebot

Disallow: /

O por el contrario, invitar exclusivamente a uno (Web Crawler en este caso):

User-agent: WebCrawler

Disallow:

Finalmente, si no quisiéramos que entrasen o indexaran los archivos PDF

User-agent: *

Disallow: /*.pdf/

Durante un tiempo pareció que se impondría la metatag "robots" para cumplir las funciones del protocolo de exclusión. Sin embargo, hoy casi ningún robot las acepta mientras que el archivo robots.txt está completamente establecido y aceptado.

En cualquier caso, aquí van unas directrices generales sobre su sintaxis:

La metatag de robots contiene un par de instrucciones separadas por comas. Estas instrucciones son "index", que invita al robot a analizar la página ("noindex" si queremos prohibírselo) y "follow" que le invita a seguir los enlaces que encuentre en ella (o "nofollow" que se lo prohibe).

Los valores ALL y NONE pueden usarse para dar todos los permisos o denegarlos de ese modo sería equivalente a y por el contrario produciría los mismos efectos que

4. Elementos que caracterizan una página desde el punto de vista de un robot

Uno de los aspectos más importantes a tener en cuenta a la hora de posicionar un sitio web es conocer los criterios que utiliza el Robot del motor de búsqueda en relación con las diferentes partes del documento HTML.

A continuación vamos a definir la estructura típica de un documento HTML y seguidamente veremos cómo ésta puede afectar a su posicionamiento.

Esta es la típica estructura de un documento Html:

: :

INFORMACIÓN DE CABECERA

El primer elemento de un documento es la etiqueta , es decir, la cabecera del documento. En esta etiqueta se encuentra toda la información que va a describir las características del documento: título, descripción, palabras clave, Copyright, autor... Estas son algunas de las etiquetas más importantes de las recogidas dentro del encabezamiento:

Área del título

: Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste las palabras clave por las que queremos que nuestro sitio sea encontrado. La extensión del título no debe superar los 75 caracteres.

Área de metainformación

Es la encuadrada dentro de las etiquetas . Esta es una etiqueta genérica de información adicional, tuvo su época dorada cuando Altavista lideraba el mundo de los buscadores. Muy pocos robots la siguen leyendo a pesar de la publicidad de los "posicionadores" españoles. Su sintaxis es

Los principales atributos de cara a Scooter (el robot de Altavista) son:

DESCRIPTION: Es la descripción de lo contenido en el documento. En ella se ha de reflejar en pocas frases, la síntesis de todo el documento, toda la información.

KEYWORDS: Son las palabras clave. Facilitan al buscador información del documento, indicándole las palabras más importantes por las que quiere ser encontrado en un buscador.

Este es un ejemplo de una etiqueta "keywords" de la página

www.guiadeenfermeria.com

EL CUERPO DE LA PÁGINA

La otra parte del documento queda encuadrada en lo que se denomina el cuerpo de la página (todo lo que está entre y ). Dentro de esta subestructura aparecerán todos los elementos visibles por el usuario (fotos, texto, animaciones...).

AREAS ESPECÍFICAS DENTRO DEL CUERPO DE LA PÁGINA

Área de cabecera

El texto del documento, que como hemos dicho va incluido en el "body", puede jerarquizarse (aunque la mayoría de diseñadores lo consideren "anticuado", los robots no). La manera óptima de especificar dicha jerarquía es mediante las etiquetas

Texto alternativo

Es el texto que se asocia a la imagen mediante el atributo ALT de la etiqueta. Es una de las áreas más sensibles y menos cuidadas por los diseñadores que no siguen los estándares de usabilidad.

Texto hiperenlazado

Es el conjunto de texto de la página que aparece entre etiquetas y

Área de URLs

Conjunto de URLs mencionadas en el código de la página que aparecen referidas en el atributo HREF

Área de comentarios

Aún existen un par de buscadores que analizan el código de los comentarios que -de modo invisible para los usuarios- los programadores colocan para otros programadores dentro del código.

La etiqueta de comentarios sigue el siguiente formato:

5. La asociación en la base de datos del buscador

Hasta aquí los elementos estructurales del código de la página. A partir de ahora, tanto el robot como nosotros tenemos que dotarnos de una serie de conceptos que nos permitan medir la importancia de la palabra o palabras clave dentro de esas áreas.

Los conceptos generalmente usados y contrastados en las regresiones a las que los expertos someten periódicamente los resultados de búsqueda más competidos son los de:

- Frecuencia

- Recuento

- Peso y

- Relevancia

El trabajo estadístico / lexométrico que realizamos en empresas como "Piensa en Red", busca establecer dentro de unos márgenes de confianza aceptable, los óptimos de cada una de estas variables en cada una de las áreas del código.

El trabajo sobre el código de una página de cara a su posicionamiento consiste en medir cada una de estas variables en cada una de las áreas y modificar su contenido si sale de los márgenes recomendados por el estudio lexométrico para uno o varios buscadores.

Definamos ahora estos conceptos:

FRECUENCIA

Es el número de veces que el término de búsqueda aparece en el área. Varía en función de si los robots "leen" partiendo palabra o no, de si distinguen o no acentos, de si se elige la opción de búsqueda exacta y de si la búsqueda es sensible o no a las mayúsculas ("case sensitive" en inglés).

Por ejemplo: Scooter, el robot de Altavista, distingue como palabras diferentes "leon" y "león" o "enfermería" y "enfermería" (buscada 12 veces más que la anterior). Sin embargo si encuentra "Leon" y "leon", asignaría una frecuencia uno al término de búsqueda "leon" (ya que parece ser sensible a la distinción mayúsculas/minúsculas).

Googlebot, el robot de Google, por el contrario ha modificado su algoritmo recientemente para equiparar "leon" a "león" y "Leon" como la misma palabra (los usuarios no suelen poner acentos :)) aunque al igual que Scooter sigue sin partir palabra (de modo que en la frase "Los ciberpunks piensan que el ciberpunk es algo más que un género literario", la frecuencia de "ciberpunk" sería uno y no dos tanto para Scooter como para Googlebot)

RECUENTO

Cuenta el total de palabras en un área excluyendo las etiquetas html. Claro que por ejemplo, largos desarrollos en javascript se confunden sistemáticamente en muchos robots como parte del texto, en vez de distinguirse de él, con lo que engordan el recuento sin aportar nada.

PESO

El peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en la página o el área analizados.

Dado que el término de búsqueda puede estar formado por varias palabras, la fórmula general del peso podríamos definirla como:

P= n * F / R

n= número de palabras del término de búsqueda

R= Recuento del área

F= Frecuencia del término de búsqueda

En cualquier caso hay una amplia discusión sobre el papel del peso y su cálculo exacto. En general, suele rondar el 3% para las páginas mejor posicionadas... aunque obviamente esto se debe a que la frecuencia y el recuento de estas suele ser similar. Es lo que en lexometría llamaríamos un caso de "multicolinealidad": en la práctica vigilar el peso sirve como chequeo de la proporción entre frecuencia y recuento, no tanto como una variable independiente que actúe por si misma.

RELEVANCIA

La relevancia mide la distancia entre el comienzo del área y el lugar donde aparece la palabra clave. Claro que hay que tener en cuenta la forma en la que los robots "leen" la página, pues algo que esté gráficamente más arriba al verlo en el navegador, no necesariamente está más arriba en el código. Recordemos que Google por ejemplo "salta" las tablas y las lee al final.

Si el término de búsqueda aparece como primera palabra del área la prominencia es 100% y si es la última el 0%. Si aparece varias veces, se promedia.

Es decir, a no ser que hagamos R muy baja, dejando la palabra clave sólo como primera palabra del body, nunca tendrá un 100%, aunque lo más recomendable es colocarla con cierta profusión en el primer tercio de cada área.

6. Ordenando las páginas por importancia: el concepto de popularidad

Cuando Google apareció en la web, allá por el 2000, la nueva se transmitió rápidamente por el viejo sistema del boca a boca. Expertos y usuarios finales, cantamos alabanzas y pensamos que por fin había alguien al otro lado que entendía y sabía implementar lo que realmente se esperaba de un motor de búsqueda. ¿Por qué?. Sobre todo por su capacidad para jerarquizar resultados.

Hasta entonces, el lugar en la lista de resultados venía dado exclusivamente por el grado de asociación de la página al término de búsqueda en la base de datos del buscador (en los buenos buscadores) o incluso por la antigüedad (en los malos) Google fue el primero en completar la asociación con un criterio jerárquico completamente diferente e independiente de los componentes del código: la "popularidad".

¿Qué significa esto? De un modo muy sencillo podríamos decir que tu página será tanto más importante a la hora de ordenar resultados, cuantas más enlaces en otras páginas indexadas le apunten. ¿Eso era todo? Realmente no. Si el "índice de popularidad" fuera igual a la suma del número de enlaces que nos apuntan, bastaría con crear una multitud de páginas que apuntaran a la nuestra para mejorar su posicionamiento. Los algoritmos de "popularidad" se defienden de un modo sencillo pero efectivo de esta posible trampa:

El "índice de popularidad" es en realidad la suma del número de páginas que nos apuntan ponderada por el índice de popularidad de cada una de ellas (medido en porcentaje sobre la máxima puntuación alcanzable).

Podríamos resumirlo en la siguiente fórmula:

P(x) = 1/P(1) + 1/P(2) + ..... + 1/P(n)

Esta fórmula se ve ponderada según el término de búsqueda por el grado de relación con los términos buscados de las páginas que nos apuntan, de modo que la fórmula de ordenación final de resultados sería un poco más compleja y sería parecida a:

F (x) = G(x) *(1/G(1)*P(1) + 1/G(2)*P(2) + ..... + 1/G(n)*P(n) )

Siendo G el algoritmo que en función del análisis del código de una página y del texto del enlace que nos apunta establece el grado de relación de esta con el término de búsqueda y que se mide también como un porcentaje del máximo alcanzable.

Es decir, Google representa un avance en las herramientas de indexación y búsqueda en la WWW porque cuando solicitas una búsqueda realiza un trabajo en cuatro fases:

1. Busca en su base de datos aquellas URLs asociadas a la palabra criterio de búsqueda

2. Calcula sus distintos grados de asociación

3. Ordena las URL en función de su popularidad ponderada con el grado de asociación de las páginas que le apuntan y del texto del enlace que nos apunta desde ellas

4. Presenta los resultados

Hay que señalar sin embargo que aunque las tecnologías basadas en la popularidad se van extendiendo, ni siquiera Google las incorpora homogéneamente: por ejemplo, en la ordenación de resultados de su directorio (en realidad una versión del DMOZ de la que hablaremos más adelante) simplemente ordena dentro de cada categoría en función del índice de popularidad (representado por una barrita verde). Si lo pensamos esto tiene su lógica, ya que se supone que el criterio que nos lleva a una categoría determinada de un directorio es el mismo para todas las webs incluidas en él, lo que le exime de realizar el trabajo de asociación URL/criterio de búsqueda.

Otra nota importante es la importancia del “qué” nos apunta. El texto del enlace puede, si el número de enlaces es suficiente, llegar a determinar la asociación de una página con un término de búsqueda que ni siquiera contenga en su contenido. Como escribe Adam Mathes:

Descubrí que cuando buscaba el término "internet rockstar" devolvía la página de Ben [Brown]. En aquel momento, sin embargo el ni siquiera tenía la frase en su página aunque la legión de bloggers quinceañeros que le enlazaban siempre usaban esa frase en sus enlaces

Este hecho, recientemente comprobado en Google, implica no sólo la inutilidad de las tradicionales campañas de banners de cara a la popularidad (ya que los enlaces pasan por un servidor intermedio), sino también que frente al tradicional énfasis en los gráficos, el elemento clave del enlace vuelve a ser el texto.

Parte II

Estrategias para la asociación de nuestra URL a un término de búsqueda

1. Algoritmos de asociación e ingeniería inversa

Existen distintos métodos de muestra y regresión a partir de los cuales aproximarnos a los algoritmos de los distintos buscadores. Aquí trataremos el más sencillo (y más utilizado). Se trata de un método sencillo de ingeniería inversa, no tan sofisticado como los usados profesionalmente, pero sin duda útil y capaz de arrojar resultados que se aproximen bastante a la realidad de las funciones de asociación.

Una primera nota: los bots no actualizan directamente la base de datos del buscador, porque cada buscador tiene trabajando para si varios clones del bot. Para evitar problemas de sincronización o corrupción en los datos, el código y datos de las páginas visitadas se almacena en una matriz temporal diferente para cada bot. Cada cierto tiempo se supervisa y se actualizan los datos de la base de datos principal con los resultados de las propias de los bots. Así que incluso aunque tus logs registren una o varias visitas del bot deseado, los cambios no se incorporan ni mucho menos automáticamente a la base de datos del buscador... por ello un plazo de 3 meses es el mínimo para que un conjunto de buscadores empiece a reflejar los resultados de nuestro trabajo.

Esto también influye en nuestro trabajo: si el código de una cierta cantidad de las páginas que usamos de muestra para realizar nuestro análisis ha cambiado desde que el buscador compuso su base de datos nuestros resultados serán poco o nada fiables. En este tema por una vez Google nos lo pone un poquito más fácil: cuando nos muestra los resultados nos da acceso a una opción llamada "En caché" que muestra precisamente la última versión guardada por ellos de esa página.

Imaginemos que queremos aproximar los valores óptimos de frecuencia, peso, recuento y relevancia para cada una de las áreas en las que dividimos el código.

Profesionalmente lanzaríamos una serie de hipótesis que comprobaríamos usando un MLG (modelo de regresión lineal general) y testaríamos cosas como la valoración o no de metatags con variables dummies.

De modo casero, se pueden obtener valores aproximados de un modo más sencillo:

a. Cogemos una decena de palabras de las más competidas (en inglés)

b. Para los primeros 3 resultados de cada término entramos en caché y copiamos el código

c. Nos lo llevamos a un programa de análisis de código que nos permita un trabajo fácil de recuento como el NoteTab-Pro

d. En una hoja de cálculo creamos 30 tablas en blanco con las distintas áreas en filas y las distintas variables en columnas

e. Rellenamos las casillas con los valores propios del análisis de cada una

f. Para cada serie descartamos los 5 inferiores y los 5 superiores

, entre 280 y 350 en el recuento del body... etc".Nos queda finalmente una colección de intervalos: "Entre 5 y 8 palabras en el recuento del área de

Esta serie de intervalos representa ya una "receta" que contrastar con el código de la página que queremos optimizar.

Veremos que si actualizamos nuestras series y tablas regularmente, esos intervalos variarán, y si hemos elegido bien los términos de búsqueda de muestra, se irán afinando con el tiempo.

2. Elección de los términos clave

Es lo primero y parece obvio... Pero no lo es: no lo es por varios motivos: en primer lugar porque como ya hemos visto, en la mayoría de los buscadores no es lo mismo una palabra con acento que la misma sin acento ("enfermería" que "enfermería" por ejemplo), por lo que de optimizar para una (normalmente la que no tiene acentos) estaríamos perdiendo los que buscan la otra. Claro que no siempre podemos elegir y tendremos que forzar en muchos casos una "doble optimización" para la palabra con y sin acento. Por otro lado, conseguir resultados óptimos para una única palabra nos sitúa en la competición más dura. En general será más fácil obtener un buen posicionamiento cuanto más específica sea la búsqueda, es decir, posicionar www.guiadeenfermeria.com para "enfermería" será siempre más difícil que para "enfermería clínica".

Lo recomendable es jugar con un término principal para el que optimizamos el código consciente y rigurosamente y un término secundario o dos para el que dejaremos pistas en el código pero sin forzar la programación.

Pero, ¿cómo elegimos el término principal?. Tres deberían ser los criterios:

- el término más buscado relacionado con el tema principal de nuestra página

- el término por el que los usuarios que ya nos conocen buscarían nuestra página

- el término más atractivo para el potencial público de nuestra página

En algunos casos es fácil: por ejemplo en www.piensaenpalm.com los dos primeros criterios nos llevaban a luchar por el competidísimo término "palm", mientras que el tercero por una serie de parejas tipo "programas palm", "noticias palm" e incluso "medicina palm" Optamos por una estrategia centrada en la palabra "palm" con tratamientos específicos en algunas páginas para las parejas. La elección se demostró acertada pues tanto en Google como en Altavista (los buscadores objetivo de aquel posicionamiento) piensaenpalm.com aparece hoy entre los 5 primeros resultados de búsqueda para más de una docena de parejas tipo "* palm". Y la segunda para la palabra "palm", por encima incluso de la web oficial en español del fabricante Palm Inc.

Sin embargo no necesariamente los tres criterios deben apuntar hacia el mismo lugar.

Tomemos por ejemplo www.saludytecnologia.com, un sitio también dedicado a PDAs (ordenadores de bolsillo) en su aplicación para profesionales sanitarios. El primer criterio nos orientaría a las palabras "PDA" o "Palm". El segundo hacia algo parecido a "tecnología salud" o "tecnología medicina". El tercero según nos informan los logs sería claramente "salud" (ya que aparece en el cuarenta y tantos entre los resultados de la búsqueda "Salud" en Google y sin embargo esta es la búsqueda que más visitantes aporta desde buscadores).

¿Qué hacer? Dado el grado de especialización de la web a posicionar, optamos desde un principio a una estrategia centrada en grupos de dos palabras y sobre todo en "palm salud" y "pda salud" criterios en los que hoy ocupa la primera posición en el listado de resultados de Google. Un problema frecuente es el derivado del desconocimiento sobre el número de peticiones que como media recibe cada término de búsqueda. Cuando posicionamos www.guiadeenfermeria.com aún Google distinguía (como siguen haciendo Altavista y otros muchos buscadores) entre la palabra con tilde y sin tilde.

Decidimos invertir 100 dólares en un anuncio clasificado de Adwords en Google... para descubrir con sorpresa que por cada vez que una persona buscaba "enfermería", había diez que buscaban "enfermeria". También descubrimos que la palabra "enfermera" y su plural "enfermeras" era buscado abrumadoramente no por profesionales (nuestro público objetivo) sino por amantes de páginas para adultos... lo que nos lo eliminó como posible término secundario. Optamos por un doble posicionamiento en ese caso: "enfermeria" y "enfermería" (para los buscadores que las consideraban palabras distintas).

Hoy www.guiadeenfermeria.com ocupa el primer lugar en Google y el segundo y tercero respectivamente en Altavista para dichos criterios.

Hay un viejo truco relacionado: aprovecharse de los errores comunes de escritura de los internautas o de las diferencias entre idiomas. Por ejemplo imaginemos que hemos hecho una página sobre un programa de televisión llamado "Business". La mayoría de los usuarios españoles difícilmente deletrearían correctamente la palabra "business", muchos pondrían cosas como "bussiness" o "busines". En los buscadores que no cuentan la popularidad podría ser útil hacer réplicas de la página a posicionar con la expresión mal escrita y un enlace a la versión "correcta".

3. Optimización para un buscador (ej: Google)

Llegamos a este punto con unos márgenes de recuento, frecuencia, etc. En cada área del código de la página, que nos aproximan a un ideal ("la página ganadora") desde el que entender el algoritmo del buscador de turno.

Estos algoritmos cambian y se perfeccionan constantemente. Sin embargo existen una serie de prácticas comprobadas a lo largo de los últimos dos años.

Los mecanismos algorítmicos que yacen bajo ellas se caracterizan por permanecer estables a lo largo del tiempo. Son conocidas como "los mandamientos" y reconocidas como parte del "core" del algoritmo común a todos los buscadores por ingenieros y matemáticos de los principales motores en las cada vez más conferencias y encuentros internacionales entre hackers y diseñadores de buscadores en los que cada vez más se prodiga la comunidad de expertos ("hacker" =experto informático, por si alguien sigue traduciendo por "pirata").

En la práctica, la combinación de respeto a los márgenes calculados anteriormente en código para el buscador objetivo y de los "mandamientos" comunes a todos, nos aseguran en un 50% un posicionamiento digno en un buen número de buscadores.

Así, mi recomendación es:

ESCRIBIR LA PÁGINA CON LOS "MANDAMIENTOS" GENÉRICOS EN LA

CABEZA.

*Area Header

- Título de máximo 5 palabras en el que la primera sea tu palabra clave objetivo

- Metatag de descripción igual al título

- Metatag de palabras clave con las mismas 5 palabras separadas por comas

*Cuerpo de la página

- Empieza y termina la página (al modo como la lee el bot) con un texto que describa en 5 palabras tu web. La primera de ellas tiene que ser tu palabra clave

- No abuses de las imágenes ni del texto alternativo de estas. Pon como texto alternativo de la primera de ellas en orden de lectura en el código tu palabra clave

- No temas usar etiquetas

Algunos buscadores como Google no sólo miden el área de cabecera sino que distingue entre sus distintas jerarquías

- Incluye también el término de búsqueda como primera palabra del primer texto hiperenlazado de tu página.

- Otros buscadores, como el mismo Google, consideran el área de negritas y los tamaños de letra. Destacar tus palabras clave en negrita en el texto e incluso en un tamaño de letra mayor que el resto ayuda.

- Utiliza ampliamente la palabra clave en el texto "normal de tu página" sobre todo en su tercio superior, aunque tampoco abuses (por ejemplo no lo uses varias veces en una fila de tabla)

CORREGIR EL CÓDIGO SEGÚN LOS MARGENES CALCULADOS COMO "GANADORES"

Corregimos y eliminamos todo aquello que salga de los márgenes que antes calculamos para recuento, relevancia, frecuencia, etc que son propios del buscador para el que queremos optimizar.

DAR ÚLTIMOS RETOQUES DE ACUERDO A LAS PECULIARIDADES DEL BUSCADOR (en este caso Google)

- La proporción entre código y texto cuenta. Aunque se discute si directamente o por el efecto sobre otras variables, abusar de las líneas de código javascript o crear páginas intermedias de cookies o redirecciones consigue dañar seriamente el posicionamiento de tu página.

- Google también "puntúa" las URLs. Ayuda tener un dominio que incluyan tu palabra clave. Aunque recuerda que no parte palabra, así que www.saludytecnologia.com no aporta nada al posicionamiento para "salud" aunque www.salud-ytecnologia.com si. Subdominios o directorios en la palabra clave también ayudan (ej: www.saludytecnologia.com/salud )

4. Optimización para varios buscadores (ej: Google + Altavista)

Si hemos seguido el sistema "casero" de aproximación al algoritmo descrito anteriormente, optimizar nuestra página para un par de buscadores resulta relativamente fácil:

En primer lugar volvemos a las series de resultados que obtuvimos de las tablas de análisis. Y contrastamos quedándonos con los márgenes más rigurosos. Por ejemplo, si para Google nos sale que el título debería tener entre 5 y 7 palabras y para Altavista entre 6 y 10, tomaríamos un nuevo margen conjunto de 6-7 palabras.

Haríamos esto con cada una de las variables hasta confeccionar una nueva serie completa. Con este nuevo instrumento nos ponemos a trabajar siguiendo las reglas del epígrafe anterior. Es decir:

a. Hacemos la página con los "mandamientos" en la cabeza

b. Corregimos de acuerdo con los márgenes de la nueva serie

c. Tenemos en cuenta las peculiaridades del segundo buscador, en este caso Altavista, que podríamos resumir en:

i.Tenemos que colocar al menos una vez el término de búsqueda al final de la página aunque reduzca un poco la relevancia

ii.Considerar que Altavista distingue mayúsculas de minúsculas

iii.Altavista es un gran dinosaurio, fue el líder antes que Google a pesar de la fuerte competencia de Infoseek (hoy extinto). Mantiene las metatags, pero también ha aprendido a penalizar los viejos trucos de años atrás, como esconder texto dándole el mismo color que al fondo

Parte III

Compitiendo en la lista (estrategias de popularidad)

1. Análisis de la competencia

Por fin tenemos nuestra página con el código optimizado para un determinado término de búsqueda. Hemos hecho una cuidadosa alta manual en buscadores y nada... no aparecemos o si aparecemos lo hacemos en algún lugar perdido dentro de la lista de resultados. ¿Por qué?. ¿Los dioses del ciberespacio nos son adversos? ¿No le gustamos a los robots? Lo mejor que podemos hacer es pedir consejo una vez más a Google. Este buscador nos ofrece una barra de navegación gratuita con una serie de herramientas que nos serán de bastante utilidad en toda nuestra tarea. Esta barra muestra el "Page Rank" de cada página representado en una barrita verde.

Este "Page Rank" no es sino la medida de la popularidad de la página. Como vimos en un apartado anterior Google utiliza en realidad el "Page Rank" como punto de partida que pondera con el grado de relación entre las páginas que apuntan y el término de búsqueda (calculado con el mismo algoritmo que aplica a nuestra página). Así que aunque sólo fuera por saber como va nuestra página, la barra de navegación ya nos prestaría un buen servicio. Además, nos ofrece la opción "Información de la Página" y dentro de ella "Vínculos de Referencia Anteriores", que lista el número y origen de los enlaces que apuntan a esa página que aparecen en su propia base de datos.

Ahora demos un repaso a las URL que ocupan los primeros 5 resultados en los principales buscadores en los que nos queramos posicionar para el término de búsqueda objetivo. Echémosle un ojo a sus page ranks. Veamos qué páginas les dan enlace.

¿Cómo son estas páginas? ¿Son páginas de gran popularidad como "Yahoo!" y los principales diarios o hay también muchas páginas personales?. ¿Cuántos enlaces le apuntan? ¿Del orden de un centenar o de varios centenares?

Toda esta información nos servirá para elaborar nuestro propio plan de marketing on-line. El listado de sitios que apuntan a nuestra competencia a la hora de posicionarnos puede ser un excelente mapa de aliados: si le dan enlace a la competencia tal vez a la tuya estén dispuestos también y ya será distancia salvada. Lo que no está nada mal. En cualquier caso puede ayudarnos a formar un perfil y una biografía de las páginas con que competimos... y a ahorrar tiempo en seguir su estela si es que son mejores que las nuestras.

2. Autoreferencia

Al llegar aquí habrás descubierto que una buena parte de los enlaces que apuntan a cualquiera de las páginas con las que competimos son enlaces internos: secciones y páginas de la misma web que apuntan a la principal del dominio.

No se trata de un error. La popularidad también sirve para premiar a las webs con muchos contenidos... que sepan organizarlos bien.

Es recomendable dar enlace a todas las novedades en la página principal, así como a las cabeceras de sección, dónde a su vez, deberíamos poder dar un acceso directo a todos los contenidos del tema.

La plantilla del sitio también debe estar pensada desde esta lógica: que desde cualquier página del sitio pueda irse con un sólo click a la cabecera de otra sección. Que nada quede a más de dos clicks de nada.

Pero cuidado, si estás pensando en convertir su página en un directorio de si misma, dando enlace a todas las páginas desde todas las páginas, repasa las tablas de intervalos porque seguramente estés perdiendo lo que ganaste optimizando el código.

Otra recomendación importante en este sentido es que el texto hiperenlazado que remite a una sección, así como el nombre del subdirectorio en que se guarda la sección, incluyan el título de una palabra clave secundaria interesante. Por ejemplo, cuando hablábamos del posicionamiento de www.piensaenpalm.com con la palabra "palm" como objetivo primario y los pares "noticias palm", "programas palm", etc. como secundarios, lo primero que recomendamos fue que los subdirectorios se llamaran www.piensaenpalm.com/noticias, www.piensaenpalm.com/descarga/programas etc.

El tema de los enlaces con texto es mucho más difícil. Los diseñadores suelen aborrecer los interfaces de navegación y las barras de navegación textuales. Como consecuencia de esto, ensayamos un modelo mixto gráfico/ texto en www.saludytecnologia.com de modo que los enlaces se dieran desde texto, pero en una tabla "arreglada" gráficamente. Otra solución parecida es dotar a la página de un interfaz gráfico pero acompañarlo de una barra de navegación textual como en la ligera www.piensamarket.com

3. Directorios

Las páginas que aparecen al principio del listado de resultados de búsqueda de todos los buscadores que valoran la popularidad, tienen una o varias referencias de los dos grandes directorios: Yahoo! y DMOZ.

El primero es de sobra conocido. Sus "surfers" siguen normas estrictas de clasificación y comentarios... que pueden anular buena parte de nuestros esfuerzos si no colocan el término de búsqueda en la descripción que hacen del sitio.

El secreto está en sugerir descripciones objetivas, no abrumadoras, ni exhaustivas, que "ahorren trabajo" al surfer. Ellos están precisamente para evitar que las descripciones parezcan anuncios :)

Siempre se insistirá poco en lo delicado del proceso de alta. Una faceta del posicionamiento que una vez hecha mal es muy difícil de corregir. Sobre todo en directorios. Una vez más mi consejo es: huye de las altas automáticas y de los que te prometen más de diez buscadores... no hay tantos. Lo que harán con toda seguridad es colocar tu URL en "granjas de enlaces" que harán que importantes buscadores castiguen el posicionamiento de tu sitio web. El segundo directorio, DMOZ, es poco conocido en España... sin embargo no por ello es menos importante. DMOZ es un directorio confeccionado por voluntarios de todo el mundo y sostenido técnicamente por Netscape. También es conocido como ODP ("Open Directory Project"), el nombre del proyecto que le dio lugar.

¿Por qué es tan importante? Pues porque permite que grandes portales y buscadores usen su base de datos personalizando su apariencia y prestaciones. Cuando buscamos clientes de DMOZ nos encontramos con portales como www.eresmas.com y... nada más y nada menos que Google, que utiliza su base de datos como base del Google Directory, de la que toma categorías y comentarios a la hora de confeccionar las listas de resultados del buscador.

Vamos, que no sólo importa por la popularidad que aporta, sino porque si la palabra criterio de búsqueda no aparece en la descripción o el nombre de la categoría del ODP y Yahoo! en la que estemos, tendremos mucho mucho más difícil aparecer en el top.

4. Estrategias de enlace exterior: un poco de marketing on-line

Una pequeña pero efectiva campaña de marketing on-line orientado al posicionamiento te puede salir por menos de 400 e incluso competir con las estrategias de promoción de empresas mayores y con grandes presupuestos.

HACER UN BUEN ALTA ES EL MEJOR COMIENZO

En primer lugar es recomendable hacer un buen proceso de alta.

NO SÓLO LOS RICOS SALEN EN LOS PERIÓDICOS

En segundo lugar la prensa on y off-line te será especialmente útil. Unos repiten las noticias de los otros: Yahoo! News (que subirá tu popularidad notablemente) toma noticias de media docena de agencias y medios offline. Servirá para que webmasters de temas relacionados con el tuyo o interesados por él te den a conocer dándote enlace o recomendándote a sus lectores y servirá sobre todo para dar pie a una larga serie de citas y citas de las citas que es lo mejor que te puede pasar :)

Mira las páginas de referencia de www.guiadeenfermeria.com o www.arcadina.com y verás el éxito de este tipo de campañas. Merece la pena detenernos y ver cómo se prepara una campaña de este tipo:

- Preparas una nota de prensa clara y bien redactada, que transmita las principales ideas y utilidad de tu web de un tamaño que permita a los periodistas con prisas colocarla tal cual para "rellenar" huecos de edición. (Estos huecos pueden parecerte poco importantes pero son la clave de una buena campaña: el

objetivo es salir en medios, uno o dos medios te darán un poco más de cobertura si eres interesante, pero los recortes, notas y esquinitas serán las que hagan que mucha más gente te llegue a conocer)

- Preparas un listado de medios (agencias + periódicos y webs de noticias locales y nacionales + revistas y ezines de tecnología + revistas y ezines no tecnológicos de temas afines al de tu página + revistas y ezines que le interesan al mismo público que tu página aunque temáticamente no tengan nada que ver)

- Buscas los contactos en los medios (no todos los periodistas son igual, algunos están más abiertos que otros, los detectas echando un ojo a los artículos que firma cada uno y buscando aquellos que han demostrado cierta sensibilidad hacia cosas similares a las que tu haces)

- Les llamas para avisarles de que les envías la nota. Se la envías y finalmente les llamas por tercera vez para asegurarte de que la recibieron y ver que les parece. Este feed-back personal es importantísimo. No hace falta que los periodistas te hagan un sesudo análisis. Lo notarás en su tono de voz.

- Es importante hacer un seguimiento de medios para ver dónde salió. Si lo que estás promocionando es la web de una PYME que presta servicios a nivel local, mi recomendación es que además prepares un dossier pequeño (4 o 5 páginas con los recortes e impresiones de las webs y las revistas) lo fotocopies y dejas unos cuantos en lugares de reunión social de la zona (bares, peluquerías, tiendas etc).

- Si repites esto cada dos o tres meses por ejemplo, "fabricando" noticias, es posible que te acaben llamando para alguna entrevista o similar. Y en cualquier caso tu objetivo estará cumplido. Te sorprenderás de como aquel artículo de una web especializada en el que apareciste, aparece "clonado" en media docena de webs meses más tarde. De la mayoría te enterarás gracias a Google :)

ALGO MEJOR QUE UN BANNER... HAZTE AMIGO DE TI MISMO

Crea tu propio anillo de webs. No, no hace falta que te mates maquetando y haciendo diseño gráfico. Basta con que escribas una historia divertida en html del más básico y la cuelgues de una página gratuita de Yahoo! o Geocities. Cuenta las anécdotas de tu web, hazte un blog... lo que quieras.

Es importante que desde él te des enlace y que el texto de ese enlace sea exactamente el de la palabra para la que has optimizado tu página. Si haces varias y se enlazan entre si y con tu página principal habrás avanzado mucho y verás como todas van creciendo en popularidad al mismo tiempo. He realizado muchos experimentos de este tipo (el más divertido y complejo seguramente www.geocities.com/ugarte_leyenda_urbana ) y puedo asegurar que suelen dar excelentes resultados.

SUBDOMINIOS

Otra forma de aumentar por ti mismo tu popularidad es dividiendo o complementando tu web con otros dominios o subdominios. Si estos incluyen la palabra clave en su nombre mejor que mejor. Es la forma de "autoreferencia" que mejores resultados da. Puedes usarlo para promocionar eventos especiales o hacer "suplementos". En la estrategia de posicionamiento de www.piensaenpalm.com usamos tour.piensaenpalm.com.

HACIENDO AMIGOS

El objetivo de una estrategia de marketing en la web orientada hacia posicionamiento es conseguir que otras páginas nos den enlace, a ser posible textual con el término de búsqueda que queremos optimizar. El único objetivo alternativo es que en lugar de textual sea una imagen que contenga el término clave en el texto alternativo.

Antes que nada y una vez más, hay que recordar que hay que tener cuidado con las "granjas de enlaces" y con todos esos listados de urls en los que nos dan de alta cuando contratamos cosas tipo "Alta en 3000 buscadores".

La metodología de este tipo de campañas suele ser la siguiente:

- Hacer un directorio de todas las páginas relacionadas con el tema de la nuestra.

- Localizar a las mejores y a las de popularidad más alta

- Escribir a sus webmaster y pensar juntos, uno por uno, qué hacer para mejorar el posicionamiento de ambos: desde un simple intercambio de microbanners en portada (como hacen todos los blogs) hasta intercambio de contenidos.

Si tienes un directorio es tanto más fácil:

- Eliges las mejores páginas (que suelen coincidir con la popularidad más alta) las destacas dentro de tu directorio

- Envías a los autores un minibanner con el código ya preparado para que te de enlace según tus objetivos. Este minibanner tiene aportar algo a la página que lo recibe, tipo "Web recomendada por..." o "Web destacada por..."

- Incluso, si no indexas todas las páginas que lo solicitan (lo cual es más que recomendable), sino que realizas una cierta selección, cabe que a las no destacadas también les envíes un pequeño minibanner tipo "Web reconocida por su utilidad en el tema X por...". Un vistazo a los vínculos de referencia de www.guiadeenfermeria.com basta para darse cuenta de lo bien que esto funciona, lo que explica que cada vez más sitios comerciales incluyan directorios especializados que promocionan páginas personales del mismo tema desde su propio sitio.

Envía tus mejores artículos a otras webs

¿Parece una locura? No. Al final te traerá más lectores. En la web la generosidad paga y enviar los artículos a otros sitios pidiendo que se de enlace a tu web no te resta visitantes ni lectores, sino todo lo contrario. En el peor de los casos habrás aumentado tu popularidad y nada más. Lo normal es que si alguien lo lee en otras webs y le gusta quiera ver más y vaya a la tuya luego. De modo que ganarás popularidad, tráfico y posicionamiento ¿Hay algo mejor?

Microbanners

Intercambiar microbanners, como hacen todos los blogs es al final una estrategia util y sencilla pero bastante efectiva para hacer en gran número. Su pequeño tamaño nos permite tener a una docena de otras webs y recibir sus visitas además.

Herramientas para otros webmasters

El mejor ejemplo es seguramente http://www.guiadeenfermeria.com/tusite.htm aquí los usuarios de este sitio que tengan webs de enfermería obtienen una serie de herramientas (chat, buscador especializado y ofertas de trabajo en enfermería) que agregan valor a su propia página personal pero que a las finales generan enlaces optimizados para la palabra "enfermeria"

Parte IV

Cosas que jamás hay que hacer

1. Texto invisible

Un viejo truco cuya dudosa efectividad duró poco. Dudosa porque originalmente la gracia estaba en conducir mediante buscadores a un público que buscaba otra cosa hacia nuestra página. Lo normal era esconder la palabra "sexo" por toda la página dándole un color a la fuente igual al fondo.

Esto se complementaba con abundantes (y casi siempre inútiles metatags) igualmente malintencionadas.

Eran los tiempos de Altavista y a los ingenieros de esta compañía no les hizo ninguna gracia. Normalmente las páginas que incluyen texto y fondo de igual color en alguna de sus partes son sistemáticamente baneadas y excluidas de las mejores posiciones de la página de resultados... durante mucho tiempo.

2. Abuso de palabras clave

Otra técnica animada incluso por algunos "expertos" fue crear páginas falsas destinadas a captar la atención de los buscadores y verdaderamente saturadas de la palabra objetivo con enlaces a la página a promocionar. Fue muy popular y amenazó seriamente la utilidad de los buscadores, incluso llegó a haber programas comerciales (todavía se venden) que servían para producir en serie páginas así. La respuesta de los buscadores fue contundente: introducir en el algoritmo de indexación penalizaciones por abuso de palabra clave. Especialmente dificultoso es Google, quien penaliza incluso la aparición de la palabra clave en la misma fila de tabla. Este exceso de celo deja pocas alternativas a cambiar el diseño de portadas hechas a base de tablas anidadas. El ejemplo que más me duele es www.saludytecnologia.com, penalizado por Google para el término "salud" por estar todas las cajas visibles en la portada divididas en dos celdas de una misma tabla. Lógicamente la palabra salud se repite "en la misma fila", ya que toda la portada es una misma fila... y lógicamente www.saludytecnologia.com pierde cientos de visitas al día.

3. Páginas de bienvenida

Poner como página principal de tu dominio una página de bienvenida o una bonita (y pesada) animación en Flash es uno de los errores más típicos y graves que se pueden cometer en el mundo del diseño web. En primer lugar dificulta la usabilidad claramente obligando como mínimo a un click de más, cuando no a esperar un tiempo de descarga inútil. Está comprobado que poner una página de bienvenida (elección de idioma, animación, etc.) hace perder entre un 40 y un 60% de visitas a un sitio.

Pero de postre ofrece como página principal a los buscadores una página que para ellos está prácticamente vacía de cualquier contenido asociable a un término de búsqueda.

4. Redireccionamientos automáticos consecutivos

Esto si que fue una peste. Aún hay unas cuantas páginas empeñadas en freír a cookies a los visitantes antes de ofrecerles nada. El ejemplo que personalmente más me duele es www.meliaviajes.com quien retrasa continuamente su ascenso en Google por el simple motivo de que lleva al robot a través de dos páginas vacías a la página de inicio real... Y no hay bot que sobreviva a más de una redirección.

5. Flash y páginas dinámicas (la internet invisible)

Afortunadamente "la internet invisible" es cada vez menor. Google ya puede leer ficheros PDF e incluso páginas PHP confeccionadas bajo ciertas premisas.

El formato Flash difícilmente dejará de ser invisible a los robots. Flash es un formato gráfico. Aunque leamos texto, lo que nos muestra, a diferencia del html no es texto sino imagen con forma de texto. Igual que nosotros no podemos copiar el texto de una animación Flash y llevárnoslo al bloc de notas, los bots no pueden separar el texto del resto y mandarlo a su base de datos. Del mismo modo, las páginas que se confeccionan en el momento de solicitarlo el usuario, sacando la información de una base de datos, no pueden ser indexadas.

Para evitar esto existen programas de gestión de sitios que en vez de "sacar" los datos de la base en el momento, generan una página estática cada vez que alguno de los editores incluye contenido nuevo. Los hay gratuitos y muy potentes tanto en PHP como en Perl.

6. Enviar reiteradamente la misma URL al buscador

El proceso de alta es mucho más delicado de lo que parece. Y no sólo en los directorios, dónde al otro lado hay humanos, sino en los buscadores. Prácticamente todos vetan tanto los intentos de enviar las altas automáticamente por programas ajenos como aquellas URLs que reciben más de una vez en el mismo día e incluso semana.

La mejor recomendación es ser discreto y encomendarse al dios de los robots para que nos visite no sólo gracias a nuestra invitación sino a que una página que visite le de enlace a la nuestra.

Conclusiones

El Arte del Posicionamiento

Con las últimas 9000 palabras espero haber transmitido bien en qué consiste posicionar una página en buscadores. Es una disciplina que obliga a tener ciertas directrices en la cabeza incluso desde antes de ponerse a programar, incluso antes de reservar el dominio.

Es también un arte, un juego que tiene que ver con la imaginación y con la capacidad para transformar un sitio web en nodo de una red de otros sitios afines.

Por la pésima influencia del bombardeo de malos sitios webs comerciales que tuvo lugar entre 1998 y 2000, la mayor parte de los sitios web españoles son islotes encerrados en si mismos. Aquellos grandes portales, bancos y tiendas virtuales estaban construídos no sobre la lógica de la red sino contra ella. La web española del 2000 era un barco cuyos armadores no se hubieran preocupado de que flotara.

Las cosas cambian y las PYMEs, las páginas personales, los sitios comunitarios, en una palabra el "pensamiento red" va tomando poco a poco el protagonismo en el cementerio de dinosaurios. Temporalmente alejado el peligro de la audiovisualización del medio y el aplastante peso de la publicidad, la red vuelve a ser un espacio colaborativo y competitivo al mismo tiempo. Como nos muestran los buscadores es un espacio donde para ser competitivo hay que ser cooperativo. Recupera la magia.