W ostatnim czasie Google Analytics nie filtruje całego ruchu botów z ruchu organicznego, który widzimy w panelu. Możemy temu zaradzić, dodając listę podejrzanych adresów IP botów do pliku .htaccess w katalogu głównym, tak by ten ruch nie docierał nawet do serwera.
Dowiedz się więcej o naszych usługach optymalizacji SEO i GEO w WPPoland.
Wersja praktyczna na początek: celem nie jest zablokowanie każdego bota, lecz usunięcie jednoznacznie niepożądanego ruchu, który zaśmieca analitykę, bez przypadkowego blokowania legalnych crawlerów ani prawdziwych użytkowników.
Problem z ruchem botów
Ruch botów potrafi mocno zaburzyć dane w Google Analytics i utrudnić zrozumienie zachowań prawdziwych użytkowników. Najczęstsze źródła ruchu botów:
- Dostawcy hostingu chmurowego (Digital Ocean, AWS, Hetzner, OVHcloud) – boty często działają wprost z tych serwerów.
- Scrapery SEO – narzędzia, które przeszukują Twoje treści, żeby zasilić własne bazy danych.
- Boty spamerskie – próbują wypełniać formularze albo zostawiać spamerskie komentarze.
- Narzędzia konkurencji i monitoringu – pobierają treści i słowa kluczowe automatycznie.
W polskich projektach często dochodzą do tego boty wpinające się w naliczanie kosztów RODO oraz crawlerzy partnerów reklamowych, którzy nie zgłaszają się przez User-Agent. Warto więc czyścić ruch botów po stronie serwera, zanim trafi do PHP czy do warstwy wtyczek.
Rozwiązanie: blokada botów w .htaccess
Dodaj poniższy fragment do swojego pliku .htaccess, by zablokować znane sieci botów:
## Blokuj znane sieci botów
deny from 78.139.5.228
deny from amazonaws.com grapeshot.co.uk lipperhey.com
## Zakresy Digital Ocean
deny from 104.236.0.0/16
deny from 159.203.0.0/16
deny from 165.227.0.0/16
## Zakresy Amazon AWS (jeśli boty rzeczywiście stamtąd uderzają)
deny from 52.4.0.0/14
deny from 52.20.0.0/14
deny from 54.64.0.0/15
Ważne: zestaw aktualnych zakresów IP zmienia się często. Listę reguł rozbudowuj stopniowo na podstawie własnych logów serwera, a nie ślepo blokując całego dostawcę.
Blokuj raczej na poziomie serwera
Wykorzystaj .htaccess, ustawienia serwera WWW lub warstwę firewall, by zatrzymać potwierdzone złe boty. W większości projektów filtrowanie na brzegu sieci, np. przez CDN albo firewall hostingu, jest bezpieczniejsze niż utrzymywanie długich, ręcznych list deny wewnątrz WordPressa. Cloudflare, Sucuri oraz wbudowane firewalle u polskich dostawców (zenbox, dhosting, mydevil) pracują na tej samej zasadzie: złe żądania są zatrzymywane, zanim w ogóle uruchomi się PHP.
Monitoruj efekty
Po wdrożeniu blokady botów:
- Sprawdź w Google Analytics, czy ruch botów spadł.
- Przeglądaj logi serwera pod kątem zablokowanych żądań.
- Dostosowuj reguły, gdy pojawią się nowe źródła botów.
Ważne uwagi
- Uważaj, by nie zablokować legalnych crawlerów takich jak Googlebot, Bingbot czy boty Allegro i Ceneo, jeśli prowadzisz sklep.
- Testuj dokładnie przed wdrożeniem na produkcję, najlepiej najpierw na środowisku staging.
- Aktualizuj listę, ponieważ zakresy IP botów zmieniają się często.
- Rozważ CDN z ochroną przed botami, taki jak Cloudflare albo Sucuri.
Jeśli redukujesz szum z botów ostrożnie, otrzymasz czystsze dane analityczne i mniej fałszywych sygnałów w raportach o ruchu. To dokładnie ten krok, który zwraca się przy każdej późniejszej analizie konwersji oraz raportach zgodnych z RODO.
Sprawdź nasze usługi tworzenia stron WordPress, żeby pchnąć projekt do przodu.



