Help > Forum > Mecanismos de pesquisa > Por que algumas páginas estão bloqueadas no arquivo robots.txt?

Por que algumas páginas estão bloqueadas no arquivo robots.txt?

O arquivo robots.txt que especificamos é otimizado para garantir a classificação mais alta possível nos mecanismos de pesquisa. Ele diz aos motores de busca para não indexar certas páginas que afetariam negativamente a colocação em motores de busca. Por exemplo, páginas com muito pouco conteúdo (como a página Compor Novo Tópico), URLs ligeiramente diferentes que apontam para o mesmo conteúdo (isso seria contado como conteúdo duplicado por mecanismos de pesquisa) e páginas transacionais somente para membros (como seguir um tópico, editar seu perfil etc.). Isso garante que os mecanismos de pesquisa vejam principalmente as páginas altamente relevantes e ricas em conteúdo do seu fórum para que ele classifique seu fórum mais alto nos resultados da pesquisa.


If you still need help, please contact us.