Como configurar Robots.txt - Signa Commerce

Com a utilização da configuração do Robots.txt, você pode configurar quais páginas ficaram visíveis para que os motores de pesquisa possam rastrear em sua loja. Podendo bloquear páginas como de conta de clientes, indexação do checkout entre outras.

Segue instruções para configurar o Robots.txt em sua loja Signacommerce:

1 - Em seu painel administrativo acesse: Conteúdo >  Design > Configuração.

 

1.1 - Selecione em qual visão de Loja deseja configurar o arquivo robots.txt, e na coluna Ação clique em Editar.

1.2 - Abra a seção Search Engine Robots.

 

1.3 - Selecione quais Robôs padrão que deseja habilitar ou desabilitar em sua loja.

Segue explicação sobre os campos de seleção acima:

  • Se você deseja que os rastreadores da Web indexem uma página e sigam os links desta página - INDEX, FOLLOW

  • Se você não deseja que os rastreadores da Web indexem uma página, mas deseja que eles sigam os links desta página - NOINDEX, FOLLOW

  • Se você deseja que os rastreadores da Web indexem uma página e não deseja que eles sigam os links desta página - INDEX, NOFOLLOW

  • Se você deseja que os rastreadores da web não indexem uma página nem sigam os links desta página - NOINDEX, NOFOLLOW

1.4 - Na seção Editar instrução personalizada do arquivo robot.txt, insira a instrução personalizada com a qual deseja que o mecanismo de pesquisa analise seu site. Verifique os exemplos das instruções personalizadas do robots.txt posteriormente neste artigo. 1.5 - Clique no botão Reset To Defaults caso queira excluir todas as suas instruções personalizadas e voltar para as instruções padrão.

1.6 - Após definir os robôs padrão, clique sobre o botão Salvar Configuração.

Para visualizar exemplos de configuração do Robots.txt, clique aqui.
Outras configurações podem ser vistas com seu time de SEO.

2 - Como adicionar o mapa do site ao arquivo robots.txt. Para adicionar o mapa do site ao arquivo robots.txt, siga estas etapas: 2.1 - Navegue até Loja > Configuração > Catálogo > Mapa do site XML e localize a seção Configurações de Envio do Ferramenta de Busca. 2.2 - Na opção Permitir a Submissão de Robots.txt alterar para Sim e Salvar a nova configuração em seguida.

Ao finalizar as configurações, será necessário realizar a limpeza de caches. Para fazer Clique aqui.


Dúvidas ou dificuldades para configurar o módulo? Entre em contato com o suporte! Será um prazer atender você :)