Im Jahr 2012 füllten Sie ein Formular add-url.html aus, um eine Seite zu Google hinzuzufügen.
Im Jahr 2026, wenn Sie sich auf das passive Crawlen von Google verlassen, könnte Ihr Inhalt Wochen brauchen, um zu erscheinen.
Besonders für Nachrichten-, Job- und Immobilien-Seiten ist passives Crawlen tot. Sie müssen Daten über APIs an Google pushen.
1. Die Google Indexing API (Nicht nur für Jobs)
Offiziell sagt Google, dass die Indexing API nur für JobPosting und BroadcastEvent gedacht ist.
Inoffiziell nutzen Entwickler sie seit Jahren mit unterschiedlichem Erfolg für reguläre Inhalte.
Im Jahr 2026 ist die Strategie jedoch klar: Nutzen Sie sie für zeitkritische Updates.
Implementierung in WordPress:
Schreiben Sie die cURL-Anfrage nicht selbst. Verwenden Sie eine Bibliothek wie googleapis/google-api-php-client.
// Beispiel: Google über ein URL-Update benachrichtigen
$client = new Google_Client();
$client->setAuthConfig('service_account.json');
$client->addScope(Google_Service_Indexing::INDEXING);
$service = new Google_Service_Indexing($client);
$postBody = new Google_Service_Indexing_UrlNotification();
$postBody->setUrl('/pl/new-post');
$postBody->setType('URL_UPDATED');
$service->urlNotifications->publish($postBody);
2. Debuggen “Gefunden - zurzeit nicht indexiert”
Dies ist der häufigste Fehler in der GSC im Jahr 2026. Er bedeutet: Google weiß, dass Ihre Seite existiert, hat aber entschieden, dass sie das Crawl-Budget nicht wert war.
Die Lösung ist NICHT technisch. Es geht meistens um Qualität.
- Duplicate Content: Ist diese Seite zu 90% ähnlich wie eine andere?
- Thin Content: Verlässt sich die Seite auf JS, um Text zu rendern, den der Googlebot nicht ausführt?
- Interne Verlinkung: Ist es eine “Waisenseite”? (Keine Links, die darauf zeigen).
3. XML-Sitemaps: Der moderne Weg
Yoast und RankMath machen das automatisch, aber als Entwickler sollten Sie wissen, dass Bilder-Sitemaps entscheidend für die AVIF/WebP-Indexierung sind.
Stellen Sie sicher, dass Ihre sitemap.xml <image:image>-Tags enthält:
<url>
<loc>/pl/my-post</loc>
<image:image>
<image:loc>https://wppoland.com/wp-content/uploads/image.avif</image:loc>
</image:image>
</url>
Wenn Ihre Sitemap keine Bilder enthält, verlieren Sie Traffic von Google Bilder/Lens.
4. Robots.txt Da KI-Bots alles scrapen, ist Ihre robots.txt Ihre erste Verteidigungslinie.
Blockieren Sie die KI-Scraper, die keinen Traffic senden, aber erlauben Sie den Suchmaschinen.
User-agent: GPTBot
Disallow: /
User-agent: CCBot
Disallow: /
User-agent: Googlebot
Allow: /
Zusammenfassung
SEO ist nicht mehr nur “Keywords”. Es ist “Infrastruktur”.
- Push: Nutzen Sie APIs, um Google zu benachrichtigen.
- Überwachen: Prüfen Sie Abdeckungsfehler in der GSC API programmgesteuert.
- Verteidigen: Blockieren Sie nutzlose KI-Bots via robots.txt.
Warten Sie nicht auf Google. Laden Sie sie ein.



