Na realidade, não há uma solução prática que aumente o tráfego do dia para a noite. Mudar o cenário, só é possível em algumas das situações que serão discutidas neste artigo.

Problemas de Crawling e impacto no tráfego orgânico — Robots.txt

É o problema mais comum quando existem dificuldades com tráfego orgânico. Mas o que é crawling? O robot de pesquisa do Google trabalha com uma ferramenta denominada de “bot”. Ele navega na internet, lê as páginas e guarda informação para depois processar e organizar em links orgânicos. Este processo de percorrer e descobrir páginas é chamado de crawling.

O que pode estar dentro de um site para ser um problema de crawling? O arquivo robots.txt. Este é um arquivo que é colocado na raiz do site que “diz” aos crawlers do Google o que podem e o que não podem procurar no site.

Muitas vezes, durante o desenvolvimento do site, é colocada uma diretriz dentro do robots.txt que solicita que nenhuma página seja lida. O problema é quando o site fica online com essa diretriz específica. Deste modo, o Google não conseguirá ler essas páginas.

Este é um problema muito sério, contudo, simples de resolver. Tirando esta diretriz, numa semana o seu tráfego estará 2, 3 ou até 20 vezes maior, dependendo do site.

Bloqueio

Outro problema relacionado com o crawling, normalmente o mais comum, está ligado ao bloqueio do próprio robot do Google. Por vezes, sites de grandes empresas possuem uma configuração que bloqueia tudo o que vem de fora do país.

Como o Google faz a consulta a partir de servidores americanos, quando é bloqueado qualquer acesso internacional, o bot não consegue ler e processar o site. Desta forma não consegue identificar as informações, e, consequentemente, não pode posicionar o site na página de resultados.

Frameworks JavaScript

Este é um problema de crawling que acontece quando os frameworks são feitos em JavaScript. Existem vários frameworks feitos nesta linguagem, mas o Google não consegue processar este formato da mesma forma como um site em HTML.

Assim, os bots não conseguem identificar todas as informações ou links e o site não irá ficar bem posicionado na ferramenta de pesquisa. Por isso, quando este site é migrado para um formato mais tradicional, conseguem perceber-se mudanças positivas no tráfego orgânico.

Títulos

Por mais pequeno que este detalhe seja, sites com títulos duplicados ou mal feitos, fazem diferença. Simplesmente colocar cada título no seu devido lugar faz com que alguns sites tripliquem o tráfego orgânico numa semana.

Links internos

O último item é a falta de links internos. Imagine que tem um site com uma infinidade de páginas, mas a sua home page é estática, só com uma caixa de pesquisa.

Se não tiver nenhum link interno que aponte para as outras páginas, para o Google continuar a navegar, dificilmente ele irá reconhecer tudo o que possui no site.

Isto é um problema de arquitetura, pois o site não tem uma estrutura clara de links em cada uma das páginas. Neste caso, é necessário adicionar pelo menos alguns links no menu ou no rodapé para que ele possa descobrir todas as páginas que o site possui.

Este erro de não ter linkagem é mais comum do que pensa, mas que pode ser contornado melhorando o HTML da página, sitemap entre outros.

Se trabalhar bem uma arquitetura clara de links de forma organizada, criar conteúdo recorrente e não apresentar nenhum dos erros mencionados, o seu tráfego vai continuar a crescer.

A Fidelizarte pode ajudar, entre em contato connosco 🙂


0 comentários

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *