Em 2012, para adicionar um site ao Google, preenchia um formulário add-url.html.
Em 2026, se confiar no rastreio passivo do Google, o seu conteúdo pode demorar semanas a aparecer.
Especialmente para sites de Notícias, Empregos e Imobiliário, o rastreio passivo está morto. Precisa de enviar dados para o Google usando APIs.
1. A Google indexing API (não apenas para empregos)
Oficialmente, o Google diz que a Indexing API é apenas para JobPosting e BroadcastEvent.
Não oficialmente, os programadores têm usado para conteúdo regular há anos com sucesso variável.
No entanto, a estratégia é clara: Use-a para atualizações sensíveis ao tempo.
Como implementar no WordPress:
Não escreva o pedido cURL você mesmo. Use uma biblioteca como googleapis/google-api-php-client.
// Exemplo: Notificar o Google de uma atualização de URL
$client = new Google_Client();
$client->setAuthConfig('service_account.json');
$client->addScope(Google_Service_Indexing::INDEXING);
$service = new Google_Service_Indexing($client);
$postBody = new Google_Service_Indexing_UrlNotification();
$postBody->setUrl('/pl/new-post');
$postBody->setType('URL_UPDATED');
$service->urlNotifications->publish($postBody);
2. Depurar “detetada – Atualmente não indexada”
Este é o erro mais comum na GSC em 2026. Significa: O Google sabe que a sua página existe, mas decidiu que não valia o orçamento de rastreio.
A Correção NÃO é técnica. É geralmente relacionada com qualidade.
- Conteúdo Duplicado: Esta página é 90% semelhante a outra?
- Conteúdo Fino: A página depende de JS para renderizar texto que o Googlebot não está a executar?
- Links Internos: É uma “página órfã”? (Sem links a apontar para ela).
3. Sitemaps XML: A maneira moderna
Yoast e RankMath fazem isto automaticamente, mas como programador, deve saber que Sitemaps de Imagens são críticos para a indexação AVIF/WebP.
Garanta que o seu sitemap.xml inclui tags <image:image>:
<url>
<loc>/pl/my-post</loc>
<image:image>
<image:loc>https://wppoland.com/wp-content/uploads/image.avif</image:loc>
</image:image>
</url>
Se o seu sitemap não tiver imagens, perde tráfego do Google Imagens/Lens.
4. Robots.txt em 2026
de IA a fazer scraping de tudo, o seu robots.txt é a sua primeira linha de defesa.
Bloqueie os scrapers de IA que não enviam tráfego, mas permita os motores de busca.
User-agent: GPTBot
Disallow: /
User-agent: CCBot
Disallow: /
User-agent: Googlebot
Allow: /
Resumo
SEO já não é apenas “Palavras-chave”. É “Infraestrutura”.
- Push: Use APIs para notificar o Google.
- Monitorize: Verifique erros de cobertura na API GSC programaticamente.
- Defenda: Bloqueie bots de IA inúteis via robots.txt.
Não espere pelo Google. Convide-os.


