miércoles

La optimización web para los motores de búsqueda

Optimización de motores de búsqueda (SEO) es el proceso de mejorar el volumen o la calidad del tráfico a un sitio Web de los motores de búsqueda de modo “natural” o no-remunerado (”orgánico” o “algoritmo”) de resultados de búsqueda en contraposición al marketing en buscadores (SEM), que se ocupa de la inclusión pagada. Normalmente, el primero (o superior) de un sitio aparece en la lista de resultados de búsqueda, más visitantes que recibirá del motor de búsqueda. SEO se pueden orientar a los diferentes tipos de búsqueda, incluyendo búsqueda de imágenes, búsqueda local, búsqueda de video y específicos de la industria de motores de búsqueda vertical. Esto da una presencia en el sitio Web de Internet.

Como una estrategia de marketing en Internet, SEO considera cómo los motores de búsqueda de trabajo y lo que la gente busca. Optimizar un sitio Web implica principalmente la edición de su contenido y la codificación HTML y asociados tanto a aumentar su relevancia a las palabras clave específicas y eliminar las barreras a las actividades de indexación de los motores de búsqueda.

Las siglas “SEO” también pueden referirse a “optimizadores de motores de búsqueda”, un término adoptado por una industria de consultores que realizan proyectos de optimización en nombre de clientes, y empleados que realizan servicios de SEO en casa. Los optimizadores de motores de búsqueda SEO pueden ofrecer como un servicio independiente o como parte de una amplia campaña de comercialización. Un SEO eficaz puede requerir cambios en el código fuente HTML de un sitio, las tácticas de SEO pueden ser incorporadas en desarrollo de sitios Web y diseño. El término “buscador de amigos” puede ser utilizado para describir diseños de sitios Web, los menús, los sistemas de gestión de contenidos, imágenes, videos, carritos de compra, y otros elementos que han sido optimizados para los efectos de la exposición del motor de búsqueda.

Otra clase de técnicas, conocidas como SEO de Black-Hat o spamdexing (spam de búsqueda de motores de búsqueda), utilizar métodos tales como granjas de enlaces, relleno de palabras clave y el artículo spinning (técnica de optimización de motores de búsqueda mediante el cual los propietarios de blog o sitio web intentan manipular su rango en Google y otros motores de búsqueda)que tanto degradan la relevancia de los resultados de búsqueda y la experiencia del usuario de los motores de búsqueda. Los motores de búsqueda para los sitios que emplean estas técnicas con el fin de sacarlos de sus índices.

HISTORIA

Webmasters (también llamado un arquitecto web, desarrollador web, autor del sitio, administrador de sitio web, es una persona responsable de mantener un sitio web) y proveedores de contenido comenzaron la optimización de sitios para los motores de búsqueda a mediados de la década de 1990, los motores de búsqueda en la Web fueron de catalogación temprana. Inicialmente, un webmaster lo que hacia era enviar la dirección de una página, o URL, a los distintos motores que enviaría una araña de “rastreo” de esa página, extraerá los enlaces a otras páginas del mismo, y toda la información pertinente que se encuentre en la página será indexada. El proceso implica que una araña de motor de búsqueda la descargue de una página y la guarde en el propio servidor del motor de búsqueda, en un segundo programa, conocido como indexador, extrae diversa información acerca de la página, como las palabras que contiene y que se encuentren, así como cualquier peso de las palabras específicas, y todos los enlaces que contiene la página, que se colocan en un programador para el rastreo en una fecha posterior.

Propietarios del sitio comenzaron a reconocer el valor de tener sus sitios de alto rango y visible en los resultados del motor de búsqueda, creando una oportunidad para los practicantes de SEO. Según el analista de la industria Danny Sullivan, la frase de optimización de motores de búsqueda, probablemente se comenzó a utilizar en 1997.

Las primeras versiones de los algoritmos de búsqueda se basaron en la información proporcionada por webmaster, tales como la etiqueta meta tag, o los archivos de índice en los motores como ALIWEB. Meta tags proporcionan una guía al contenido de cada página. Pero el uso de metadatos para las páginas de índice se encontraron menos fiables, porque la elección de los webmaster de la etiqueta meta tag podría ser una representación inexacta del contenido real del sitio. Datos inexactos, incompletos e incoherentes en los meta tags podrían causar búsquedas irrelevantes. Los proveedores de contenido también manipulan una serie de atributos en el código fuente HTML de una página en un intento de clasificar bien en los motores de búsqueda.

Al depender tanto de factores como la densidad de palabras clave que fueron exclusivamente del control de un webmaster, motores de búsqueda a principios han sufrido abuso y manipulación del ranking. Para ofrecer mejores resultados a sus usuarios, los motores de búsqueda tuvieron que adaptarse para garantizar los resultados de sus páginas que presentaban los resultados de búsqueda más relevantes, en lugar de páginas independientes con numerosas palabras clave de los webmasters sin escrúpulos. Puesto que el éxito y la popularidad de un motor de búsqueda están determinados por su capacidad de producir los resultados más relevantes de cualquier búsqueda, siendo los resultados falsos los usuarios puedan encontrar las fuentes de búsqueda. Los motores de búsqueda responden al desarrollo de algoritmos de clasificación más complejos, teniendo en cuenta factores adicionales que son más difíciles para los webmasters de manipular.

Los estudiantes de postgrado en la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron “backrub”, un motor de búsqueda que se basa en un algoritmo matemático para votar la prominencia de las páginas web. El número calculado por el algoritmo de PageRank, es una función de la cantidad y la fuerza de los enlaces entrantes. PageRank da las estimaciones de la probabilidad de que una determinada página se puede alcanzar por un usuario de Internet que navega por la red al azar, y sigue los enlaces de una página a otra. En efecto, esto significa que algunos vínculos son más fuertes que otros.

Page y Brin fundaron Google en 1998. Google atrajo a un público fiel entre el creciente número de usuarios de Internet, al que le gustaba su diseño simple. Los factores de la página (PageRank, el análisis de hipervínculo, la frecuencia de palabras clave, meta etiquetas, títulos, enlaces y la estructura del sitio) permiten a Google evitar el tipo de manipulación visto en los motores de búsqueda que sólo se consideran los factores en la página de sus clasificaciones. Aunque PageRank fue lo más difícil del “juego”, los webmasters ya habían desarrollado herramientas de construcción de vínculos y acciones destinadas a influir en el motor de búsqueda de Inktomi, y estos métodos se mostraron igualmente aplicables a los “juegos” de PageRank. Muchos sitios se centraron en el intercambio, compra y venta de enlaces, a menudo en una escala masiva. Algunos de estos planes, o link farm (grupo de sitios Web), supuso la creación de miles de sitios con el único propósito de spam enlace.

En 2004, los motores de búsqueda han incorporado una amplia gama de factores de divulgación en sus algoritmos de clasificación para reducir el impacto de la manipulación de enlaces. Google dice que clasifica los sitios Web mediante más de 200 señales diferentes. Los tres principales buscadores, Google, Yahoo y Bing de Microsoft, no revelan los algoritmos que usan para clasificar las páginas. SEO notables, como la Rand Fishkin, Barry Schwartz, Aaron Wall y Jill Whalen, han estudiado diferentes enfoques de la optimización de motores de búsqueda, y han publicado sus opiniones en foros en línea y blogs, los practicantes de SEO también puede estudiar patentes de varios motores de búsqueda para ganar la penetración en los algoritmos.

En 2005, Google empezó la personalización de los resultados de búsqueda para cada usuario. Dependiendo de su historial de búsquedas anteriores, los resultados de Google diseñados para los usuarios registrados. En 2008, Bruce Clay, dijo que “el ranking está muerto”, por la búsqueda personalizada. Se perdería todo sentido para discutir cómo un sitio web de ranking, es potencialmente diferente para cada usuario y cada búsqueda.

En 2007 Google anunció una campaña contra los enlaces de pago de la transferencia de PageRank. En 2009 Google anunció que se habían tomado medidas para mitigar los efectos de PageRank por el uso del atributo “nofollow” en los enlaces.

RELACIÓN CON LOS MOTORES DE BÚSQUEDA

En 1997, los motores de búsqueda reconocen que los webmasters están haciendo esfuerzos para conseguir una buena clasificación en los motores de búsqueda, y que algunos webmasters estaban manipulando su ranking en los resultados de búsqueda con el relleno de las páginas con palabras irrelevantes o excesivas. Principios de los motores de búsqueda, tales como Infoseek, ajustan sus algoritmos en un esfuerzo por evitar la manipulación de los webmasters de Clasificación.

Debido al alto valor de comercialización de los resultados de búsqueda orientada, existe la posibilidad de una relación de confrontación entre los motores de búsqueda y SEO. En 2005, una conferencia anual, AirWeb, contradicción de Recuperación de Información en la Web, [17], fue creada para discutir y reducir al mínimo los efectos perjudiciales de los proveedores de contenido agresivo web.

Las compañías de SEO que emplean técnicas demasiado agresivas pueden obtener de sus clientes sitios web prohibidos de los resultados de búsqueda. En 2005, el Wall Street Journal informó sobre una empresa (el tráfico de potencia), que supuestamente utilizaba técnicas de alto riesgo y no daba a conocer los riesgos a sus clientes. La revista Wired informó de que la misma empresa demandó a Blogger y SEO Aaron Wall por escribir acerca de la prohibición. Matt Cutts de Google confirmó más tarde que Google influyo en la prohibición de tráfico de energía y de algunos de sus clientes.

Algunos motores de búsqueda han llegado también a la industria de SEO, y son frecuentes los patrocinadores e invitados en las conferencias de SEO, charlas y seminarios. De hecho, con el advenimiento de la inclusión pagada, algunos motores de búsqueda ahora tienen un gran interés en la salud de la comunidad de optimización. Los principales motores de búsqueda de información y directrices para ayudar con la optimización de su sitio, tienen un programa de Google Sitemaps, para ayudar a los webmasters a saber si Google está teniendo problemas de indexación de su sitio web y también proporciona datos sobre el tráfico de Google a la página web. Las directrices de Google son una lista de sugerencias prácticas de Google, que ha dado como guía para los webmasters. Yahoo Site Explorer proporciona una forma para que los webmasters envien las URL y determinen cuántas páginas se encuentran en Yahoo!

MÉTODOS

Cómo indexados

Los principales buscadores, como Google y Yahoo, tienen rastreadores para encontrar páginas de sus resultados de búsqueda algorítmica. Las páginas que están vinculadas de otro motor de búsqueda de páginas indexadas no es necesario que se presente ya que se encuentran de forma automática. Algunos motores de búsqueda, en particular, Yahoo, opera con un servicio de envío de pago que garantiza el rastreo de pago o bien un conjunto de coste por clic. Estos programas generalmente garantizan su inclusión en la base de datos, pero no garantizan la clasificación específica dentro de los resultados de búsqueda. Dos principales directorios, el directorio de Yahoo y el Open Directory Project requieren la presentación manual y revisión editorial humana. Google ofrece herramientas para los webmasters de Google, por lo que una alimentación de XML Sitemap puede ser creado y presentado de forma gratuita para garantizar que todas las páginas se encuentren, especialmente las páginas que no se pueden descubrir automáticamente.

Los rastreadores de motores de búsqueda pueden mirar a un número de factores diferentes al realizar el rastreo de un sitio. No es que cada página sea indexada por los motores de búsqueda. La distancia de las páginas del directorio raíz de un sitio también puede ser un factor, reciba o no las páginas rastreadas.

Prevención de rastreo

Para evitar contenidos no deseados en los índices de búsqueda, los webmasters pueden indicarnos que no hay “arañas” para rastrear determinados archivos o directorios mediante el archivo robots.txt estándar en el directorio raíz del dominio. Además, una página puede ser excluida expresamente de una base de datos del motor de búsqueda mediante el uso de una etiqueta meta, específica para los robots. Cuando un motor de búsqueda visita un sitio, el archivo robots.txt en el directorio raíz es el primer archivo rastreado. El archivo robots.txt es luego analizado, y le dará instrucciones al robot para que las páginas no deban ser rastreadas. Como un rastreador motor de búsqueda puede guardar una copia en caché de este archivo, en ocasiones, pueden rastrear páginas de un webmaster que no quiere rastrear. Algunas páginas normalmente impiden el rastreo de páginas de inicio de sesión que son específicas ( carros de la compra y de usuario de contenido específicas), tales como resultados de la búsqueda interna. En marzo de 2007, Google Webmasters advirtió que deberian evitar la indexación de los resultados de la búsqueda interna porque las páginas son consideradas spam de búsqueda.

Importancia cada vez mayor

Una variedad de los otros métodos que se emplean para obtener una página web se muestran en los resultados de buscadores. Estos incluyen:

* Cruce de enlace entre las páginas del mismo sitio web. Dar más enlaces a las páginas principales del sitio web, para aumentar el PageRank utilizado por los motores de búsqueda. Vínculos de otros sitios web, incluyendo el grupo de enlaces y comentarios no deseados.
* Redacción de contenidos que incluye frecuentemente buscar las palabras clave, a fin de ser pertinentes para una gran variedad de consultas de búsqueda, añadiendo palabras clave relevantes a una meta tags página web, incluyendo el relleno de palabras clave.
* Además, la escritura de las noticias a medida para la web, utilizando palabras clave relevantes, se anima a menudo a complementar las estrategias de marketing en línea. Cuanto más contenido tenga la página, el sitio web de las arañas y las oportunidades de recibir más enlaces entrantes al sitio web mejorarán.
* La normalización de URL de las páginas web accesibles a través de varias direcciones URL, utilizando la etiqueta meta.

“WHITE HAT” CONTRA “BLACK HAT”

Las técnicas de SEO se pueden clasificar en dos grandes categorías: las técnicas que recomiendan los motores de búsqueda como parte de un buen diseño, y las técnicas que los motores de búsqueda no aprueban. Los motores de búsqueda intentan minimizar el efecto de estas últimas, entre ellas spamdexing. Algunos comentaristas de la industria han clasificado estos métodos, y los profesionales que los emplean, ya sea como SEO de “white hat”, o SEO de “black hat”.Los “White hat” tienden a producir resultados que duran mucho mas tiempo, mientras que el “black hat” anticipa que sus sitios pueden eventualmente ser prohibidos de forma temporal o permanente una vez que los motores de búsqueda descubran lo que están haciendo.

Una técnica de SEO es considerada como “White hat” si se ajusta a las directrices de los motores de búsqueda y no implica ningún engaño. Como las directrices del motor de búsqueda no están escritas como una serie de reglas o preceptos (esta distinción es importante tenerla en cuenta). SEO de “White hat” no es sólo para las siguientes directrices, pero se trata de garantizar que el contenido de un motor de búsqueda indexa y posteriormente, los rangos sean del mismo contenido que verá un usuario. Asesoramiento “White hat” suele resumir la creación de contenido para los usuarios y no para motores de búsqueda, y luego hace que el contenido sea de fácil acceso para las arañas, en lugar de tratar de engañar al algoritmo de su finalidad prevista. SEO de “White hat” es en muchos aspectos similar a la de desarrollo web que promueve la accesibilidad, aunque los dos no sean idénticos.

SEO “black hat” intenta mejorar los rankings en formas que son desaprobadas por los motores de búsqueda, o el engaño. Una de las técnicas de “black hat” es utilizar el texto que está oculto, ya sea como texto de color similar al de fondo, en un “div” invisible, o colocado fuera de la pantalla. Otro método da una página diferente dependiendo de si la página está siendo solicitada por un visitante humano o un motor de búsqueda, una técnica conocida como ocultación.

Los motores de búsqueda pueden penalizar a los sitios que descubren con métodos de “black hat”, ya sea mediante la reducción de su clasificación o eliminación de sus anuncios de sus bases de datos. Estas sanciones pueden ser aplicadas automáticamente por algoritmos de los buscadores, o por una revisión manual de la web. Ejemplos conocidos son la eliminación de febrero de 2006 de Google, tanto en Alemania como BMW y Ricoh Alemania para el uso de prácticas engañosas, y la eliminación de abril de 2006 de la Agencia Bigmouthmedia PPC. Las tres empresas, sin embargo, rápidamente se disculparon, fijaron la ofensiva de las páginas, y fueron restaurados a la lista de Google.

Muchas de las aplicaciones Web emplean sistemas back-end que modifican dinámicamente el contenido de la página (a la vez visible y meta-datos) y están diseñados para aumentar la relevancia de la página a los motores de búsqueda basados en cómo los visitantes llegaron a la página original. Esta dinámica de optimización de motores de búsqueda y proceso de ajuste puede ser (y ha sido) objeto de abuso por los delincuentes en el pasado. La explotación de las aplicaciones Web que modifican dinámicamente en sí pueden ser envenenadas.

TÉCNICAS DE “GREY HAT”
Las técnicas de “grey hat” no son las de “black hat” ni las de “white hat”. Algunas de estas técnicas de “grey hat” pueden argumentarse de cualquier manera. Estas técnicas podrían tener algún riesgo asociado. Un muy buen ejemplo de esa técnica es comprar enlaces.

Aunque Google está en contra de compra-venta de enlaces, hay personas que se suscriben a revistas en línea, miembros y otros recursos con el propósito de obtener un enlace a su página web.

COMO UNA ESTRATEGIA DE MARKETING

Los estudios “Eye tracking” de seguimiento han demostrado que los investigadores escanean una página de resultados de búsqueda de arriba a abajo y de izquierda a derecha, en busca de un resultado relevante. La colocación en o cerca de la cima de la clasificación por lo tanto aumenta el número de investigadores que visita un sitio. Sin embargo, las referencias de motores de búsqueda no garantizan más ventas. SEO no es necesariamente una estrategia adecuada para cada sitio web, y las estrategias de comercialización de Internet pueden ser mucho más eficaces, en función de los objetivos del operador del sitio. Una exitosa campaña de marketing en Internet puede dirigir el tráfico orgánico a páginas web, pero también puede implicar el uso de publicidad pagada en los motores de búsqueda y otras páginas, la creación de páginas web de alta calidad para comprometer y persuadir, abordar las cuestiones técnicas que puedan mantener los motores de búsqueda para rastrear e indexar los sitios, la creación de programas de análisis para que los propietarios del sitio puedan medir sus éxitos, y mejorar la tasa de conversión de un sitio.

SEO podría generar un retorno de la inversión. Sin embargo, los motores de búsqueda no se pagan por el tráfico de búsqueda orgánica ni por sus algoritmos de cambio, y no hay garantías de referencias. Debido a esta falta de garantías y de seguridad, un negocio que depende en gran medida del tráfico de motores de búsqueda puede sufrir pérdidas importantes si los motores de búsqueda detienen el envío de los visitantes. Se considera prudente la práctica de negocios de operadores de sitios web para liberarse de la dependencia del motor de búsqueda de tráfico. El mejor clasificado SEO, “blog Seomoz.org “, ha dicho, “marketing de búsqueda, en un toque de ironía, recibe una parte muy pequeña de su tráfico de los motores de búsqueda”. En cambio, sus principales fuentes de tráfico son enlaces de otros sitios web.

LOS MERCADOS INTERNACIONALES

Las técnicas de optimización estan muy atentas a los motores de búsqueda dominantes en el mercado de destino. Las acciones de los buscadores del mercado varían de un mercado a otro, como lo hace la competencia. En 2003, Danny Sullivan dijo que Google representaba alrededor del 75% de todas las búsquedas. En los mercados fuera de Estados Unidos, la cuota de Google es a menudo más grande, y Google sigue siendo el motor de búsqueda dominante en todo el mundo a partir de 2007. A partir de 2006, Google tenía una cuota de mercado del 85-90% en Alemania. Mientras había cientos de firmas de SEO en los EE.UU. en ese momento, sólo había unas cinco en Alemania. En junio de 2008, la cuota de mercado de Google en el Reino Unido estaba cerca de 90%, según Hitwise. Esta cuota de mercado se realiza en una serie de países.

A partir de 2009, sólo hay un puñado de grandes mercados en los que Google no es el principal motor de búsqueda. En la mayoría de los casos, cuando Google no es líder en un mercado dado, se está quedando detrás de un jugador local. Los mercados más notables son China, Japón, Corea del Sur, Rusia y la República Checa, respectivamente, donde Baidu, Yahoo! Japón, Naver, Yandex y Seznam son líderes del mercado.
La optimización de búsqueda con éxito en los mercados internacionales podria exigir la traducción profesional de páginas web, registro de un nombre de dominio con un dominio de nivel superior en el mercado objetivo, y web hosting que proporciona una dirección IP local. De lo contrario, los elementos fundamentales de la optimización de búsqueda son básicamente los mismos, independientemente del idioma.

LOS PRECEDENTES LEGALES

El 17 de octubre de 2002, SearchKing presenta una demanda en el Tribunal Federal de Distrito, Distrito Oeste de Oklahoma, en contra del motor de búsqueda de Google. La reclamación de SearchKing fue las tácticas de Google para evitar que spamdexing constituyera una interferencia extracontractual con las relaciones contractuales. El 27 de mayo de 2003, el tribunal accedió a la petición de Google de desestimar la denuncia.

En marzo de 2006, KinderStart presentó una demanda contra Google en los buscadores. El sitio web KinderStart fue eliminado del índice de Google con anterioridad a la demanda y la cantidad de tráfico al sitio se redujo en un 70%. El 16 de marzo de 2007, el Tribunal Federal de Distrito para el Distrito Norte de California (San José Division) desestimó la denuncia de KinderStart , y estimó parcialmente la propuesta de Google contra el abogado KinderStart’s, que le obligaba a pagar parte de los gastos de Google.

http://www.134internet.com/la-optimizacion-web-para-los-motores-de-busqueda.html

No hay comentarios: