Como acessar o cPanel
Antes de consultar robôs e spiders no Awstats, primeiro é necessário acessar o cPanel. Você pode fazer isso de três formas:
- pela URL direta, digitando no navegador https://seudominio.com.br/cpanel
- pela porta segura do cPanel, usando https://seudominio.com.br:2083
- pela área do cliente MyWay, entrando no serviço de hospedagem e clicando no atalho de acesso ao cPanel
Como identificar robôs e spiders no Awstats
Para que serve esta análise
Nem todo acesso ao site vem de uma pessoa. Muitos acessos são feitos por sistemas automáticos.
- motores de busca rastreiam páginas
- serviços monitoram disponibilidade
- bots verificam links, feeds, sitemaps e APIs
- scanners e crawlers podem tentar mapear arquivos e áreas do site
Passo 1 – Abrir o relatório do Awstats
No cPanel, entre na seção Métricas, clique em Awstats e depois em View no domínio desejado.
Traduções úteis:
- Robots/Spiders = Robôs/Aranhas
- Robot = Robô
- Spider = Aranha / rastreador
Passo 2 – Localizar a seção de robôs e spiders
Role o Awstats até encontrar a seção que normalmente aparece como:
- Robots/Spiders visitors
- Robots/Spiders
Nessa área, o sistema lista agentes automatizados que foram reconhecidos com base nos dados dos logs e nas bases de identificação usadas pelo AWStats.
Como interpretar os robôs listados
Na prática, você poderá encontrar exemplos como:
- rastreadores de buscadores
- validadores automáticos
- ferramentas de monitoramento
- bibliotecas de varredura
- agentes automatizados menos conhecidos
As colunas costumam incluir:
- Hits
- Bandwidth
- às vezes contagens específicas relacionadas ao tráfego gerado
Como diferenciar bot legítimo de comportamento suspeito
Exemplos de leitura prática:
- bot de mecanismo de busca conhecido: geralmente é esperado
- robô com picos muito altos fora do padrão: merece investigação
- muitos acessos a URLs inexistentes: pode indicar scanner automático
- bot gerando muito consumo de banda: pode impactar recursos do site
Por que essa análise é importante
- evita superestimar o número de visitantes humanos
- ajuda a explicar consumo de banda e hits muito altos
- permite detectar varreduras em massa
- apoia decisões de bloqueio, rate limit ou proteção adicional
- ajuda em SEO para entender rastreamento real de indexadores
Exemplos práticos do dia a dia
- o site teve muitos hits, mas poucas visitas humanas: bots podem explicar isso
- há alto consumo de recursos fora do horário comercial: pode haver crawlers ativos
- muitas páginas inexistentes foram requisitadas: provável scanner automatizado
- o site foi publicado recentemente e já aparece com bots: isso pode ser rastreamento inicial
Limitações importantes
- nem todo bot é detectado perfeitamente
- alguns agentes automatizados imitam navegadores comuns
- alguns acessos humanos podem vir por apps ou ferramentas com user agents incomuns
- o relatório depende da qualidade do log e da capacidade de detecção disponível
Resultado esperado
Ao final da análise, você deverá conseguir:
- identificar os principais bots e spiders que acessaram o site
- distinguir melhor tráfego humano de automatizado
- explicar picos de hits e banda
- detectar padrões de rastreamento anormal
- tomar decisões melhores sobre segurança e performance
Resumo
1. Acesse o cPanel pela URL direta ou pela área do cliente
2. Entre em Métricas e clique em Awstats
3. Clique em View no domínio correto
4. Localize a seção Robots/Spiders
5. Analise volume de hits e banda
6. Veja quais agentes automatizados foram detectados
7. Cruze a informação com URLs, horários e países
8. Identifique se o comportamento parece normal ou suspeito
Na prática, esse recurso ajuda a separar tráfego humano de tráfego automatizado e a interpretar melhor todo o relatório do site.
Atenciosamente,
MyWay Hosting
Servidores Otimizados por inteligência artificial
www.myway.com.br
