El director del departamento contra el ‘spam’ en la web de Google, Matt Cutts, ha anunciado que cerca del 25 o 30% del contenido de Internet es duplicado. Es decir, un cuarto de las páginas web indexadas en Google son replicadas.
Según publica Europa Press, Cutt ha publicado un vídeo en el que contesta a la pregunta de un usuario acerca de cómo gestiona Google el contenido duplicado y qué efectos negativos puede tener en el posicionamiento SEO.
El algoritmo de Google penaliza el contenido duplicado, de manera que si una página publica exactamente el mismo texto que otra, será más difícil que se posicione bien en el índice del buscador. Según ha explicado Cutt, Google toma todo ese contenido como una sola pieza, aunque no siempre lo marca como ‘spam’.
[youtube]http://www.youtube.com/watch?v=mQZY7EmjbMA[/youtube]
Sin embargo, un blog que sólo publicara automáticamentecontenido que llega de otras webs por un canal RSS, sí se clasificaría como ‘spam’ ya que «no está aportando ningún valor real».
[calameo code=0000021178e8bf92dcad3 width=640 height=380]