A solução é planificar oportunamente a estrutura do site e das URLs, escolhendo quais delas vão ser as "definitivas", as quais aparecerão nos resultados da Google e receberão os links (tanto externos como internos). Para executá-lo, tem-se de utilizar fundamentalmente:
- Redirecionamentos 301 para enviar os usuários e o robô da Google para uma URL única.
- "robôs.txt" e a Meta Tag "NOINDEX" para indicar aquilo que não queremos que seja indexado, e que pode nos prejudicar. O uso de "rel=nofollow" não evita que outros sites linkem às páginas que não deseja que sejam indexadas.
- "Google Sitemaps" para indicar à Google quais as URLs que quer que apareçam.
Agora, neste post oficial da Google fala-se sobre várias coisas sobre o conteúdo duplicado. A primeira é que asseguram que sua existência "não implica uma penalização" e que, na realidade, o que ocorre é que o PageRank fica dispersado ao invés de se concentrar numa única página, o que provoca uma perda de posicionamiento.
O segundo assunto é bastante interessante, e está relacionado com o conteúdo duplicado de uma página com respeito a outra, alojada em outro site. Em muitas ocasiões, algumas páginas copiam literalmente o conteúdo de outras (sem má intenção, como quando se utilizam como agregadores de conteúdos via feeds; com má intenção, para posteriormente obter rendimentos com o conteúdo alheio). E numa notável percentagem dos casos, se procuramos determinados termos na Google, encontraremos o "copiador" acima do "original" na página de resultados.
Esta situação provoca, além do enfado e chateação daqueles que escrevem a informação original, uma situação que não favorece em absoluto àqueles que apostam em escrever conteúdos originais para enriquecer a rede, e sim aos que se aproveitam do trabalho dos demais, e ainda se vêem recompensados em muitas ocasiões através do Google AdSense.
Por isso, há algumas semanas Lino Uruñuela escreveu a Matt Cutts (responsável pelo buscador da Google) para lhe sugerir um método bastante simples e sensato que ele descreve em seu blog pessoal. O sistema consistiria simplesmente de que a Google criasse um servidor que suporte um protocolo similar ao dos "pings" nos blogs para que o responsável de um determinado site possa advertir de que um determinado conteúdo foi criado, graças a que se envia a URL da página recém criada.
De fato a Google já dispõe de um sistema muito parecido neste formulario para comunicar a atualização de um determinado blog. Simplesmente, só precisaria que ele rastreasse naquele momento a informação para dar fé de que aquela URL seja a primeira em gerar o conteúdo.
Mas e se o responsável ou webmaster esquecer de registrar estes conteúdos, ou simplesmente não sabe da existência deste serviço? Então, como se conta no citado post, poder-se-iam utilizar outros fatores que neste momento estão sendo considerados, como a "autoridade" de cada site ou o número de links para cada uma das páginas com o mesmo conteúdo.
Faça o seu comentário
Comentários