
Matt Cutts ha anunciado recientemente que Google acaba de lanzar una actualización de su algoritmo, con intención de atacar a los sites de copian a otros, los scrapers, en favor de los que poseen contenido original.
Según comenta, este cambio solo afecta a un 2% de las búsquedas y lo que hace es favorecer el posicionamiento de la fuente original en detrimento de las copias. Se irá viendo las próximas semanas como puede afectar esto a los agregadores, que podrÃan ser los grandes perjudicados, aparte de los spammers más evidentes. También a ver si tiene efectos colaterales..

Ultimamente se estaba viendo un aumento considerable de spam en los resultados de búsqueda y en general habÃa cierta sensación de que Google no estaba trabajando lo suficiente para preservar la calidad de sus resultados. De hecho, el propio Matt Cutts comentó hace un tiempo como parte de su equipo, que trabaja para hacer frente al spam, habÃa sido reubicado en otros proyectos.
A finales del mes pasado Matt Cutts escribió una entrada en el blog oficial de Google confirmando este tema y a la vez, comentando como Google estaba trabajando para solucionarlo. Esta ha sido la respuesta de Google a las recientes crÃticas y la primera gran noticia SEO de 2011..
SEO google

El cloaking, como muchos de vosotros sabréis, es una técnica de Black Hat SEO que consiste en mostrar contenido diferente a los buscadores respecto a los usuarios, con intención de manipular los resultados de búsqueda. Es una técnica que si Google la detecta, puede provocar ser penalizado fuertemente o directamente baneado del indice.
A finales del año pasado, Matt Cutts dejo caer que Google puede poner especial énfasis en la detección de cloaking durante 2011. Este fue su mensaje a través de Twitter:
Google will look more at cloaking in Q1 2011. Not just page content matters; avoid different headers/redirects to Googlebot instead of users.
Recientemente, en el blog de Bruce Clay han publicado un buen artÃculo repasando las diferentes técnicas de cloaking identificadas, que creo que conviene revisar:
- IP delivery: mostrar contenido diferente basándose en la dirección IP de la petición.
- User agent: contenido diferente basándose en el agente del cliente, por ejemplo, mostrar para la misma URL un contenido diferente para GoogleBot respecto al mostrado para Mozilla y el resto de navegadores.
- Redirecciones por Javascript: redireccionar una página suponiendo (mal) que Google no va a ejecutar Javascript pero los usuarios sÃ.
- Meta-etiqueta refresh: redireccionar una página usando la meta-etiqueta refresh en el head de la misma.
- Redirecciones múltiples: suponiendo que Google bot no es capaz de seguir más allá de cinco.
- Frame: el uso de frames o iframes con intención de engañar, por ejemplo haciendo una redirección por Javascript dentro del frame.
- Redirecciones múltiples: suponiendo que Google bot no es capaz de seguir más allá de cinco.
- Etiqueta noscript: la etiqueta que ofrece la alternativa a un contenido generado Javascript, pudiendo ser usada de manera no lÃcita.
- Cabeceras HTTP: mostrar cabeceras diferentes a los buscadores con intención de engañarles.
- Páginas Doorway: crear una serie de páginas optimizadas para palabras clave concretas, que luego dirigen al usuario al sitio principal.
- Multi-variate testing: en principio es una técnica totalmente limpia para optimizar páginas de cara a la conversión, pero Google avisa que hay que tener cierto cuidado.
- Redirecciones 301 de dominios antiguos: una técnica bastante usada en el pasado, redirecciones hacia tu sitio un dominio antiguo no relacionado.
- Link cloaking: enviar al usuario a una dirección diferente a la clickada sobre el enlace.
- Link hijacking: modificar el anchor text o atributos del enlace, como puede ser el nofollow, con intención de engañar.
- Texto oculto: la más clásica técnica de cloaking, texto con fuente de tamaño cero, mismo color que el fondo y similares.
Para terminar, tened en cuenta que hay ciertas cosas que pueden encajar con el cloaking pero que no suponen ningún problema por no tener fines malévolos.. como por ejemplo: el geo-targeting, redirección a la versión para móviles, página de verificación de edad, balanceo de carga, las páginas personalizadas para los usuarios logeados y similares.
Fuente: SEO Cloaking Techniques to Avoid in 2011
SEO google

Google acaba de actualizar el Pagerank público de forma global y durante el dÃa de hoy se está extendiendo a lo largo de sus diferentes data-centers.
Llevaban ya largo tiempo sin hacerlo, tirando de archivo veo que desde abril de 2010, aunque sà que habÃa habido varias actualizaciones menores sobretodo de bajada por penalizaciones y demás.
Una de mis predicciones para el SEO de 2010 fue la desaparición del famoso número de la barrita verde, pero al menos de momento ahà sigue, para regocijo de los que comercian con enlaces 😉
Confirmación de que es un actualización general en los foros de WebmasterWorld y DigitalPoint.
SEO google, pagerank
La verdad es que me hace gracia que todavÃa se vean cosas como esta en los resultados de búsqueda de Google, sobre todo después de tantas novedades en los últimos tiempos con Caffeine, Instant y demás..
Para la búsqueda “alquiler particular Madrid” se muestra lo siguiente:

Tres veces lo mismo, tres páginas en primera posición que muestran exactamente el mismo contenido, algo que solo mirando a las URL no es que resulte difÃcil de adivinar:
http://madrid.loquo.com/cs/vivienda/pisos-en-alquiler-particular/300
http://madrid.loquo.com/cs/vivienda/piso-en-alquiler-particular/300
http://madrid.loquo.com/cs/vivienda/pisos-en-alquiler-particular/300&id=4500921
Viva el contenido duplicado, pero eso sÃ, que no falte la lupa.. 😉
SEO google
Al menos hasta la salida de Google Instant y siguiendo los datos publicados por Experian Hitwise, el volumen de búsquedas de long tail está en aumento respecto al año pasado.
Según una comparación realizada entre mayo de 2009 y abril de 2010, las búsquedas de 5 a 8 palabras aumentaron un 10% en USA, mientras que las de 1 a 4 palabras bajaron un 2%.
Porcentaje de búsquedas por número de palabras
Bueno, veremos como cambia el panorama en los próximos meses..
Fuente: The Long Tail is Alive & Well
SEO
El famoso doodle animado que Google mostró el 7 de septiembre, al parecer ha hecho ganar a una empresa la friolera de 250.000 dolares.

El logo provocó que las búsquedas para el término “buckyballs” creciesen de manera exagerada ese dÃa y la web GetBuckyBalls, que se dedica a vender juguetes de bolas magnéticas, se posiciona primera en los resultados de Google.
Gracias a ello, recibieron miles de visitas y sus ganancias ascendieron al cuarto de millón de dolares.
La cifra no me la acabo de creer e igual solo intentan darse algo de publicidad extra, pero dentro del sin sentido en que se convierte todo esto a veces, no lo veo imposible..

Fuente: Vida Digital
Internet google
Google acaba de lanzar Instant, resultados de búsqueda que se actualizan a medida que vas escribiendo, unido a una predicción de la búsqueda que se muestra en gris en la propia caja de texto.
Como usuario personalmente no me entusiasma.. pero lo realmente importante son las consecuencias a nivel SEO, de CTR y demás que puede provocar este cambio. Lo primero que me viene a la cabeza es que las entradas por long tail pueden ser las más afectadas:
- Por un lado, más de una persona no terminará de escribir lo que estaba pensando en buscar y directamente se meterá en alguno de los resultados que se le hayan mostrado. Siendo asÃ, las páginas bien posicionadas para el short-tail es posible que roben tráfico a las más orientadas a long-tail.
- Por otro, el hecho de mostrar la sugerencia de búsqueda diréctamente en la caja de texto, puede matar la creatividad de la gente, haciendo que el long-tail en sà mismo se reduzca considerablemente.
Hay otra opción contraria a lo que acabo de comentar e insinuada por Matt Cutts en un post que acaba de publicar: podrÃa ser que las sugerencias dadas por Google ahora incitasen más a los usuarios a afinar más su búsqueda, haciendo crecer el volumen de búsquedas de long-tail centradas en esas sugerencias, en detrimento del short-tail.
Otro tema a tener en cuenta pueden ser las búsquedas que se quedan a medias. Digamos que yo quiero buscar “viajes a Barcelona”, pero después de haber escrito “viajes a Barce” decido darle a enter ya que Google me completa el “Barcelona”, aparentemente.. ya que en realidad la búsqueda que se hace es “viajes a Barce”. ¿Habrá que optimizar nuestras páginas también para esas variantes cortadas?
Bueno, de momento solo se puede especular.. los próximos dÃas habrá que analizar al detalle los datos recogidos por Google Analytics y a ver quien es el primero que publica un estudio de eye-tracking sobre Google Instant, ya que puede resultar muy interesante.
Por si alguien no lo ha visto todavÃa, este es el jovial video de presentación de Google Instant:
ACTUALIZACION:
Matt Cutts acaba de publicar un post en su blog hablando sobre el tema: Thoughts on Google Instant
ACTUALIZACION 9 septiembre 2010:
Primera aproximación de como hacer el seguimiento de Google Instant por Analytics: How to track Google Instant in Google Analytics
Un comentario que he leÃdo vÃa @Alejandroperez, que tiene su gracia y posiblemente gran parte de verdad.. “La gente sigue mirando el teclado cuando escribe, asà que poco cambia :D”
Internet, SEO google
El error en la meta-descripción de la nueva web del gigante textil Zara ha sido una de las noticias más comentadas del dÃa y seguro que a más de uno le ha sacado una sonrisa esta mañana..
Se ve que a alguien se le olvidó cambiarlo antes del lanzamiento y esto lo que se está viendo ahora mismo en los resultados de búsqueda de Google y otros:
Resultados de Google para la búsqueda de “Zara”
Bueno, tan solo un pequeño error, aunque junto con otros problemas que han reportado al menos da que pensar, ya que no creo que el desarrollo de esta nueva web haya costado cuatro duros precisamente..
Internet
Ultimos comentarios