Wprowadzenie
Widzisz to samo co ja? Od początku 2025 roku w wielu firmach ruch organiczny z Google zaczął spadać, mimo że treści są regularnie publikowane, a pozycje słów kluczowych wydają się stabilne. Klienci piszą: „Panie, coś się stało, mamy o 30% mniej leadów z SEO”. Zaczynają panikować, zmieniać agencje, inwestować w płatne kampanie. A tymczasem problem często leży po stronie technicznej – w trzech konkretnych obszarach, które Google coraz mocniej waży w rankingach.
Jako praktyk, który na co dzień widzi backendy, frontendy i konfiguracje serwerów, powiem wprost: algorytmy 2025 to już nie tylko treść i linki. Google stawia na doświadczenie użytkownika, wydajność i bezpieczeństwo na poziomie kodu. Jeśli Twoja strona technicznie kuleje – ruch spadnie, nawet jeśli pisałby największy copywriter świata.
W tym artykule opiszę trzy ciche zabójce ruchu organicznego, które regularnie diagnozuję u klientów. Są to błędy proste do naprawy, ale często ignorowane, bo nie widać ich w Google Search Console od razu.
1. Ukryty JavaScript blokujący indeksację
To najczęstszy problem, jaki widzę. Wiele nowoczesnych stron – zwłaszcza zbudowanych w oparciu o frameworki takie jak React, Vue czy Angular – renderuje treść po stronie klienta. Oznacza to, że Googlebot musi najpierw pobrać, przeanalizować i wykonać JavaScript, aby zobaczyć właściwą treść strony. Jeśli ten proces jest zbyt wolny lub blokowany, Google może nie zaindeksować kluczowych podstron.
Jak to wygląda w praktyce?
Klient: sklep e-commerce na Next.js (stary, bez SSR). Miał 10 000 produktów, ruch spadł o 40% w ciągu dwóch miesięcy. Sprawdzam – w Google Search Console indeksowanych było tylko 2000 stron. Reszta oznaczona jako „Odkryta – obecnie nie zaindeksowana”. Powód? Timeout na wykonanie JS. Googlebot po prostu nie doczekał się na załadowanie treści.
Rozwiązanie
- Wdróż Server-Side Rendering (SSR) lub Static Site Generation (SSG) tam, gdzie to możliwe. Next.js, Nuxt, Gatsby – narzędzia są dojrzałe.
- Użyj narzędzi takich jak Puppeteer lub DebugBear, aby zasymulować indeksację i zobaczyć, co widzi Googlebot.
- Ogranicz ilość blokującego JS na stronach produktowych i kategorii.
Pamiętaj: Google indeksuje coraz więcej stron jako „czysto mobilnych”. Jeśli Twój JS działa wolno na słabszych urządzeniach – to już czerwona flaga dla algorytmu.
2. Core Web Vitals w dół – cichy zabójca pozycji
Core Web Vitals to nie nowość, ale od 2025 roku Google jeszcze mocniej wyważył te metryki w rankingu. W szczególności LCP (Largest Contentful Paint) i INP (Interaction to Next Paint) to teraz jedne z głównych sygnałów rankingowych dla stron z dużą zawartością dynamiczną.
Realny przypadek
Firma z branży SaaS, blog techniczny z 300 artykułami. Ruch spada o 20% z miesiąca na miesiąc. Sprawdzam Core Web Vitals – LCP wynosi 4.5 sekundy na mobile. Powód? Ogromne obrazy w artykułach, brak formatu next-gen (WebP/AVIF), lazy loading źle skonfigurowany (ładował się dopiero po przewinięciu, ale LCP liczony był od góry strony). Dodatkowo, czcionki Google ładowane bez preconnect.
INP też był do bani: kliknięcie w menu hamburger powodowało zamrożenie interfejsu na 1.5 sekundy, bo uruchamiał się skrypt analityczny.
Rozwiązanie
- Zoptymalizuj obrazy: WebP, AVIF, odpowiednie rozmiary, CDN z obrazami.
- Wdróż preconnect dla fontów i domen trzecich.
- Przejdź na czcionki systemowe lub hostuj lokalnie.
- Dla INP: odciąż wątek główny – usuń niepotrzebne skrypty, podziel duże zadania, użyj Web Workers do ciężkich obliczeń.
Narzędzia do monitorowania: PageSpeed Insights, Lighthouse, CrUX (Chrome User Experience Report). Nie wystarczy zrobić audyt raz – to trzeba mierzyć codziennie.
3. Mdły content widziany przez AI – Google Helpful Content 2.0
W 2025 roku Google używa zaawansowanych modeli AI do oceny wartości treści. Nie chodzi już tylko o to, czy tekst jest długi, czy zawiera słowa kluczowe. Algorytm stara się zrozumieć, czy artykuł faktycznie pomaga użytkownikowi, czy jest napisany przez człowieka z doświadczeniem, czy jest po prostu przeróbką innych stron.
Typowy błąd
Widzę to u firm, które masowo produkują treści z pomocą AI – nieźle napisane, ale bez realnej wartości. Google to wykrywa i karze spadkiem ruchu. Przykład: agencja nieruchomości publikowała 50 artykułów miesięcznie o „jak sprzedać mieszkanie” – wszystkie były generyczne, bez lokalnych danych, bez konkretnych porad. Po aktualizacji ich ruch spadł o 60%.
Co zamiast tego?
- Pisz treści z własnego doświadczenia. Jeśli masz praktykę w branży – dziel się nią. Google to ceni.
- Unikaj treści, które łatwo wygenerować – skup się na unikalnych perspektywach, case studies, danych wewnętrznych.
- Regularnie audytuj istniejące treści. Usuń lub ulepsz te, które przynoszą mało ruchu i mają wysoką liczbę odrzuceń.
- Pamiętaj o E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness). W 2025 to kluczowe, zwłaszcza dla stron z branż YMYL (Your Money or Your Life).
Podsumowanie
Spadki ruchu z Google w 2025 rzadko są efektem jednego błędu. Zwykle to kombinacja problemów technicznych i treściowych. Jeśli Twoja strona traci ruch, zanim zaczniesz zmieniać strategię contentową, sprawdź trzy rzeczy:
- Czy Googlebot widzi Twoją treść bez czekania na JavaScript?
- Czy Twoje Core Web Vitals są zielone dla mobile?
- Czy Twoje treści faktycznie niosą wartość, czy tylko wypełniają przestrzeń?
Jako JurskiTech od lat pomagamy firmom diagnozować i naprawiać tego typu problemy. Nie chodzi o to, by gonić za algorytmem – chodzi o to, by zbudować solidny technicznie fundament, na którym treści mogą realnie konkurować. Jeśli potrzebujesz audytu technicznego SEO, wiesz, gdzie nas znaleźć.
Pamiętaj: Google nie jest wrogiem. Jest tylko narzędziem – ale narzędzie działa dobrze tylko wtedy, gdy masz sprawdzoną maszynerię.


