Popups com efeito nefasto no posicionamento no Google?

De um momento para o outro 75% das visitas oriundas do Google desapareceram de um site de um colega. O site continua listado no Google, uma busca com o comando site devolve milhares de páginas, simplesmente, quando antes estava posicionado entre os primeiros resultados do Google foi agora remetido para as calendas gregas. O gráfico ilustra a descida abrupta:

Trafego enviado pelo Google

Trafego enviado pelo Google

O site não tem links escondidos nem se dedica a quaisquer outras práticas como keyword stuffing. Mesmo assim, em buscas que incluem o nome do site este surge depois de vários outros que redistribuem os seus conteúdos.

É para mim evidente que o site está sujeito a uma qualquer filtragem pelo Google e, ainda sem uma análise detalhada do site, as popups surgem como o principal suspeito.

Porque não gosta o Google de popups?

É sabido que a maior parte dos utilizadores não gosta nada de popups. São intrusivas, inoportunas e fechadas assim que conseguimos acertar com o rato no botão para fecho da janela. Se as popups são más para os utilizadores são más para o Google que fica mal na fotografia. Mais, o adwords do Google proíbe os seus anunciantes de incluírem popups nas landing pages dos seus anúncios.

Não que seja relevante para o caso mas popups deste site, entretanto removidas, eram especialmente intrusivas porque ultrapassaram as defesas do Firefox. Já no Chrome não. O Chrome é uma das minhas pista enquanto fonte do Google: desconfio que o Google use a informação do navegador (removida de qualquer informação privada) para detectar situações como esta.

Outras pistas incluem informação recolhida pelos bots, revisões manuais ao site ou uma filtragem transversal a todos os sites que tenham o widget da motigo. O que o Google de certeza não usa são os dados cedidos voluntariamente pelos webmaster, como sejam as estatísticas do Google Analytics.

Atenção aos widgets

No caso particular a popup estava associada a um widget, da motigo. Estas popups são muitas vezes uma surpresa para os admnistradores dos sites que não sabem da sua existência: as popups não são servidas aos visitantes regulares do site nem surgem de imediato com a colocação do widget.

Os bloggers que usam destas ferramentas devem verificar regularmente se o seu site emite popups, que não só podem colocar em causa o posicionamento no Google como irritam e mandam embora os visitantes. Para o fazer terão de limpar todos os cookies e a cache e/ou visitar o site ou usar de um navegador diferente daquele que usam regularmente.

Penalizado e reabilitado nos resultados do Google

site penalizado pelo GoogleHá um par de semanas notei que um site que administro quase que deixara de receber visitantes do Google. Nas buscas pelo nome continuava a aparecer no topo dos resultados mas nas restantes buscas, que normalmente conduziam muitos visitantes até ao site, as páginas do site surgiam muito em baixo nos resultados. Casos havia em que as páginas nem sequer apareciam.

Era para mim evidente que os filtros do Google estavam a penalizar o site nos resultados. A consola webmaster do Google não me dava qualquer aviso e o facto de o site não ter sido banido dos resultados não me fazia suspeitar de qualquer violação dos guias do google.

Lembrei-me então de explorar a possibilidade cracker: uma injecção de links na instalação wordpress. Para minha grande surpresa uma busca ao site pela pílula mágica devolveu vários resultados [site:site.pt viagra]. Lá estavam eles no rodapé das páginas, vários links para sites que alguma vez vira, protegidos pela propriedade visibility:hidden numa div.

A penalização do Google era claramente algorítmica e demonstra o quão evoluídos os filtros do motor de busca se tornaram: detectaram os links escondidos e associaram a sua autoria a crackers e não ao webmaster. Só lamento que não tenha havido qualquer aviso na consola webmaster.

Já depois de ter detectado o problema notei vários acessos ao site a partir dos escritórios do Google em Montain View, nas 24 horas prévias. Possivelmente um revisor(es) do Google, que utilizava o comando site em conjunto com o texto das urls, e que inspeccionou várias páginas.

Imediatamente actualizei o software e removi os links escondidos. As visitas dos revisores do Google continuaram durante uma semana e creio que terão contribuído para o rápido levantamento dos filtros. Desde sábado que a presença do site nos resultados do Google me parece mais próxima do habitual. A única diferença visível são as visitas vindas das buscas por imagens que ainda não foram reestabelecidas.

Como não fazer cybersquatting

Aparentemente, Manuela Ferreira Leite “tem” um site, a correr em wordpress, com anúncios do Google e banners afiliados:

ferreira leite

Acontece que o site (www.ferreiraleite.com) não é de Manuela Ferreira Leite: se os anúncios e banners não fossem pista suficiente, a leitura de artigos como “Agostinho Branquinho anuncia apoio a Pedro Passos Coelho“, raspados de sites de informação deveria tirar quaisquer dúvidas aos que conhecem os meandros da internet.

Este não é um caso único, vários outros domínios foram registados em nome dos candidatos às directas do PSD por diversas pessoas, algumas das quais com direitos legítimos.

Destaco o caso desta página porque o squatter já terá conseguido links suficientes de bloggers equivocados para justificar o investimento. Pelo caminho cometeu três erros que provavelmente vão passar impunes mas lhe poderiam custar caro:

- Em vez de esperar pelo equívoco, o proprietário promoveu activamente o site como sendo da candidatura no mesmo dia em que o registou. Este comentário foi colocado no Blasfémias às 10 da manhã do dia em que o domínio foi registado. No comentário o autor, “Frit”, promove o site como sendo da candidatura. Chama-se a isto fraude e vem no código penal…

- O site é alimentado por artigos copiados de orgãos de informação. O que acima citei foi colhido no Público. As fontes são citadas, mas sem link. Usar artigos de terceiros para alimentar páginas de publicidade é ilegal; sugerir ou dar a entender que a candidata o possa a estar a fazer constitui dolo.

- Não é lá muito inteligente usar links afiliados com o nosso nome de utilizador e muito menos se revelam a nossa identidade (que é omissa no site ou no whois):
hostmonster.com/track/ruidamasio/XPTO ;)

Registar domínios com nomes de personalidades públicas é uma prática questionável mas habitual lá fora. Em Portugal o mercado é bastante mais pequeno e duvido que haja espaço para mais do que 2 ou 3 destes domínios. É também uma questão sensível por questões culturais: é o nosso nome e muitos reagem emocionalmente ao vê-lo registado por terceiros. Não quero com isso dizer que vão a correr pagar um resgate de dezenas ou centenas de euros para o comprar. Pelo contrário, os euros vão mais depressa parar aos bolsos de advogados…

WHOIS nos Resultados

Aqui está outra inovação recente do Google que não será lá muito do agrado de alguns webmasters (via):

whois nos resultados do Google

Não serão os prós a utilizar esta nova funcionalidade; têm já os seus atalhos e ferramentas de eleição (quando não desenvolvem as suas próprias).
busca do domain tools no firefox São antes os leigos que provavelmente deixarão de visitar os sites que optimizaram para os resultados em favor do parceiro de circunstância do Google.
Parceiro este que disponibiliza (imagem) as suas ferramentas para aqueles que pretendem acesso directo.

Tráfego defensivo

Muitas das minhas buscas mais simples, faço-as na barra de endereço do firefox, o que significa que normalmente não vejo páginas de resultados destas – sou redireccionado para a primeira página nos resultados. Hoje, usei um computador diferente, e notei isto:

google time

(Para os curiosos, outros truques que podem fazer com o Google e até com o Sapo.)

Para os utilizadores que, como eu, apenas pretendem saber as horas esta informação é preciosa: dispensa um clique, uma breve análise aos resultados e a procura, na página de destino, do local onde se encontra a informação que pretendemos.

Para o webmaster do site esta inovação do Google deve ter sido um dos seus piores pesadelos: de um momento para o outro uma percentagem relevante dos seus cliques desapareceram. Isto acontece porque estes sites foram sobretudo criados para satisfazer os resultados de busca; ie, criados para o Google. E estão por isso sujeitos aos caprichos do Google: sempre que o Google veja utilidade e valor em desintermediá-los, fá-lo-á.

Duas lições se podem extrair: 1) criar sites para os resultados é hoje uma estratégia arriscada, de curto prazo e, necessariamente, de monetização rápida. 2) A melhor defesa é o ataque: a longo prazo impõe-se o desenvolvimento de uma estratégia de marketing na internet e agir quase como se o Google não existisse. Quanto maior o sucesso desta estratégia maior será a relevância nos SERPs.

Sitemaps para os motores de busca

sitemap Um Sitemap é normalmente um ficheiro XML localizado na raiz de um domínio que sugere informação sobre as páginas de um site aos bots dos motores de busca (ex: www.marketingdebusca.com/sitemap.xml). O protocolo sitemaps é reconhecido pelos principais motores de busca: google, yahoo e live / msn.

Os robots dos motores de busca visitam as páginas do site com base na informação que vão encontrando na web, nomeadamente links. O sitemap suplementa essa informação com algumas sugestões para os motores de busca: localização das urls, data da última actualização, importância relativa da url. A inclusão de uma página no sitemap não é garantia da indexação, antes uma dica aos motores de busca. Mais informação em sitemaps.org.

Recentemente, o protocolo foi alterado de forma a facilitar a indexação e a tarefa de gestão dos sitemaps. O sitemap pode agora estar localizado num domínio externo. Desta forma o webmaster poderá manter e gerir os diferentes sitemaps dos seus sites no mesmo directório, desde que validados no respectivo ficheiro robots.txt.

Exemplo: criar o sitemap do site2.pt em site1.pt. Para validar um sitemap localizado externamente basta declarar no ficheiro robots.txt do site2.pt a seguinte informação:
Sitemap: http://www.site1.pt/sitemap-site2-pt.xml

Sem esta declaração os bots não saberiam se se trataria do sitemap autêntico do site2.pt ou de alguma falsificação. Notar ainda que:

Existem três opções para informar o motor de busca da existência de um sitemap: submetendo-o directamente junto de cada motor de busca, a declaração no robots.txt ou através de um HTTP request. Informação aqui. O primeiro e o terceiro são métodos válidos para submeter novos sites aos motores de busca.

Existem ferramentas que criam e actualizam sitemaps automaticamente no formato XML; como não podia deixar de ser algumas dessas são plugins para wordpress. O sitemap do Marketing de Busca foi criado com o plugin Google Sitemap Generator Plugin e pode ser visto aqui.

Segurança no alojamento de sites

Se aloja o seu próprio site ou blog um dos elementos ao qual estará provavelmente a dedicar menos atenção que o devido é a segurança. Muitos webmasters não se dão conta destes problemas a não ser quando os afectam. Alguns destes problemas podem levar à exclusão temporária do site nos resultados ou afectar a confiança dos motores de busca nas páginas alojadas no domínio. O Google webmaster blog publicou esta semana uma breve lista para verificar a segurança de sites. Destes, destaco:

Há mais, o melhor mesmo é ler o artigo completo.

Um conselho que poderia estar naquela lista é verificar se o serviço de alojamento é de confiança e efectuar diligência antes de contratar. Ontem descobri num site, criado por mim e alguns amigos, uma página 404 (página não encontrada) pirata: criada pelo serviço de hosting, sem qualquer link para o site principal, e quase completamente preenchida por anúncios ao jeito de domain parking. Pior, os visitantes do site levam ainda com uma nova janela popup com mais publicidade.
O domínio foi registado gratuitamente por um amigo, incluído num plano de alojamento bastante atractivo, pelo menos à primeira vista. Agora sabemos que não será bem assim. Definitivamente, evitem os serviços da ixwebhosting.com.