Propuesta de Google para hacer AJAX crawleable

October 8th, 2009

Google acaba de presentar en el Webmaster Central Blog una propuesta para hacer AJAX crawleable por los buscadores, con la colaboración de los webmasters y programadores. Esta es la presentación:

Se ve que se basa principalmente en generar URLs especiales y en el uso de un browser como HTMLUnit en el lado del servidor. De momento es solo una propuesta y no parece una opción muy sencilla, sin embargo, podría ser la alternativa que más de un site muy basado en AJAX puede estar esperando.

Esperan recibir feedback sobre ello en el Webmaster Help Forum. La indexación de contenido generado por AJAX para no estar muy lejos.

SEO , ,

URLs no crawleadas en los resultados de búsqueda de Google

October 7th, 2009

A través de un video del Webmaster Central Channel, Matt Cutts ha explicado una de las curiosidades que nos podemos encontrar en los resultados de búsqueda de Google: links a páginas que hemos bloqueado con el robots.txt. Por ejemplo de este blog, donde se ve como se muestra la URL sin snippet:

Páginas no crawleadas en los resultados de búsquedaPáginas no crawleadas en los resultados de búsqueda

Al parecer, es algo que según ellos no viola el robots.txt porque no muestran ninguna información de la página en sí, tan solo la URL. Comenta que es algo que empezaron a hacer como respuesta a que varios sites de gran relevancia decidiesen bloquear su contenido mediantes el robots.txt. Siendo esto así, en favor de los usuarios y viendo que estas URLs recibían links, decidieron mostrar la URL en sus resultados.

Para terminar, Matt recuerda que la única forma de asegurarse de que una página no salga en los resultados de búsqueda, es añadiendole el meta tag robots noindex.

SEO , ,

Cómo detecta Google la compra y venta de enlaces

October 6th, 2009

Ya hace bastante tiempo que Google pone especial énfasis en la lucha contra la venta de links con intención de manipular sus resultados de búsqueda. Se sabe que algorítmicamente son capaces de detectar enlaces de este tipo y estos son algunos de los signos que pueden provocar sospechas:

  • Enlace tipo ROS: un link que se repite en todas las páginas de un site, normalmente en el footer.
  • Contenido no relacionado: enlaces desde páginas que no tengan absolutamente nada que ver.
  • Repetición masiva del mismo anchor text: que el anchor text de la mayoria de los links sea siempre sea el mismo y además el perfecto para SEO.
  • Crecimiento no natural del perfil de linking externo: aumentar mucho y en poco tiempo el número de links entrantes.
  • Crecimiento del número de enlacesCrecimiento del número de enlaces

  • Link en una página afiliada a link brokers: links desde páginas que anuncian la venta de links a través de empresas como Text Link Ads.
  • Enlaces que aparecen y desaparecen: un enlace ganado de forma natural normalmente se mantiene mientras que los de pago, puede no ser así, porque al final es un alquiler.
  • Link en sección de Enlaces Patrocinados: Google recomienda poner nofollow a los links en este tipo de secciones; si no se hace, Google lo ve.
  • Recibir denuncias a través de Google: denuncias de otros webmasters hechas mediante el formulario de reporte de venta de links que ofrece Google.

Hay que pensar en lo que es un perfil de linking natural, siendo normal tener links desde blogs, no-blogs, directorios, páginas de temática relacionada, con todo tipo de anchors, con nofollow y sin él.. lo que se salga de esto de forma exagerada, puede dar que sospechar a Google de que se trata de un caso de linking de pago.

Más información:
How Google Finds paid links

SEO ,

Herramientas para analizar los links entrantes

October 3rd, 2009

En general, para analizar los backlinks de sites propios la mejor opción suele ser el Google Webmaster Tools, mientras que para analizar los de la competencia una buena opción es usar el Yahoo Site Explorer, que suele dar más información que el comando link: de Google.

Ese link: tambien se puede usar en otros buscadores que en algún caso nos pueden dar información añadida, como son Orange, Altavista, All The Web o Web Crawler.

Hay varias herramientas que presumen de crawlear la web para obtener mejores resultados, como son SEOMOZ Linkscape para usuarios de pago y Majestic SEO gratuita, interesante para consultar el histórico.

Majestic SEOMajestic SEO

Existen otras que no crawlean, pero haciendo uso de una API como la de Yahoo para obtener los links, ofrecen informacion extra acerca de estos. Estas son algunas de ellas que merece la pena probar:

Backlink SEO Tool
Page Inlink Analyzer
Backlink Domain Analyzer
Link Diagnosis
Backlink Checker
Backlink Watch
Backlinks Pagerank Checker
SEOBook Link Harvester

También se pueden encontrar soluciones de escritorio, como pueden ser SEOBook Backlink Analyzer, BackLinks Master o SEO SpyGlass.

Más información:
3 Best Desktop backlink checking tools
Online SEO tools – Ultimate collection
Indispensable link building tools
Backlink age SEO factor

SEO ,

Google renueva su Adwords Keyword Tool

September 24th, 2009

Parece ser que Google ha empezado a ofrecer a algunas cuentas de Adwords la beta de la nueva versión de su herramienta de palabras clave. Si en tu cuenta de Adwords la tienes disponible, deberías poder ver un link “beta” dentro de la herramienta.

Yo no tengo acceso tadavía, pero aquí se puede ver una captura mostrando lo nuevo que ofrece:

Nueva Google Adwords Keyword ToolNueva Google Adwords Keyword Tool

¿Alguien que haya podido probarla puede comentar sus impresiones?

Más información:
Search Engine Land: New Beta Google Keyword Tool
Search Engine Roundtable: Google AdWords New Beta Keyword Tool
Search Engine Watch Forum: NEW Google Beta Keyword Tool – (Screen Shots)

SEM, SEO ,

El keywords meta tag no es un factor de posicionamiento en Google

September 24th, 2009

Google acaba de confirmar a través de un post del Webmaster Central Blog y otro del blog personal de Matt Cutts algo que ya se comentaba hace tiempo entre los SEO: Google no usa el meta tag keywords como factor de posicionamiento. Incluso han publicado un video explicando el tema:

¿Significa esto que debemos dejar de usar este tag? No, ya que el hecho de no usarlo para el posicionamiento no significa que no lo usen con otros propositos y además, se sabe que otros buscadores sí lo tienen en cuenta.

ACTUALIZACION 8 octubre 2009: Parece ser que ya hace tres meses que Yahoo tampoco hace uso de las meta keywords, según comentan en Search Engine Roundtable.

SEO , ,

Google y el uso de parámetros en las URLs

September 24th, 2009

Recientemente han surgido un par de novedades en cuanto al tratamiento que hace Google de las URLs con parámetros. Por un lado, han empezado a dar la posibilidad de indicarles a través del Google Webmaster Tools qué parámetros deben ignorar y cuales no. Tan solo hay que indicar el nombre del parámetro y una de las opciones, según nos convenga:

Configuración de parámetros en el Webmaster ToolsConfiguración de parámetros en el Webmaster Tools

Por otro lado, se le ha preguntado a Matt Cutts si Google usa la deducción a la hora de crawlear URLs. Por ejemplo, si teniendo dos URLs como site.com/article/page1.html y site.com/article/page2.html, que Google pueda llegar a una posible site.com/article/page3.html aún cuando no la haya encontrado enlazada. Matt no ha podido responder directamente a la pregunta, pero sí ha comentado como Google cuando se encuentra con URL con parámetros, prueba a quitar parámetros y ver si el contenido es el mismo o no, intentando crawlear de la manera más inteligente posible.

Sabemos que a nivel SEO lo mejor es evitar los parámetros y tener URLs lo más semánticas posibles, pero de cualquier forma es una información que nos puede resultar útil en algún caso.

SEO , ,

La validación W3C no afecta al posicionamiento SEO en Google

September 24th, 2009

Que una página válidada por el W3C ayuda al SEO, es una teoría que se puede encontrar en algún manual o guía SEO, aún cuando siempre ha sido una idea que generaba dudas.

Recientemente, Matt Cutts ha confirmado en un video del Webmaster Channel de Youtube que la validación W3C no supone ningún estímulo en cuanto a posicionamiento. Comenta que es algo que no tienen en cuenta por una simple razón: la gran mayoría de las páginas no superan esa validación.

De hecho, la cuestión ha surgido porque la propia Google.com no la supera, ya que ellos priman el conseguir que la página pese el menor número de bytes posible.

SEO , ,