Jak nadmierna optymalizacja pod ChatGPT niszczy SEO: 3 realne zagrożenia
W ciągu ostatnich 12 miesięcy obserwuję na rynku niepokojące zjawisko: firmy technologiczne, e-commerce, a nawet agencje marketingowe masowo przepisują swoje treści pod ChatGPT i podobne narzędzia AI. Motywacja jest prosta – chcą pojawiać się w odpowiedziach generowanych przez asystentów AI. Problem w tym, że większość robi to w sposób, który niszczy ich dotychczasową pozycję w Google i alienuje prawdziwych użytkowników. To nie jest teoria – widzę to w analizach konkretnych projektów, które trafiają do JurskiTech.
Dlaczego to się dzieje? Presja nowego kanału
Kiedy pojawia się nowy sposób dotarcia do klientów – w tym przypadku odpowiedzi generowane przez AI – naturalną reakcją jest chęć optymalizacji pod ten kanał. Problem zaczyna się, gdy zapominamy o podstawowej zasadzie: ChatGPT, Gemini czy Copilot nie są końcowymi odbiorcami. Są pośrednikami, którzy agregują informacje dla ludzi. W pośpiechu wiele firm tworzy treści, które:
- Są nadmiernie strukturalizowane (lista za listą, punkt za punktem)
- Tracą naturalny flow narracji
- Pomijają kontekst biznesowy i emocjonalny
- Stają się suche jak dokumentacja techniczna
W praktyce widziałem sklep e-commerce z branży outdoor, który przepisał wszystkie opisy produktów na „zoptymalizowane pod ChatGPT”. Rezultat? Opisy stały się technicznymi specyfikacjami, które nie budują żadnej emocjonalnej więzi z klientem. Konwersja spadła o 23% w ciągu miesiąca, mimo że ruch z wyszukiwarek pozostał stabilny.
3 konkretne błędy, które widzę w projektach
1. Nadmierna strukturyzacja kosztem czytelności
ChatGPT preferuje treści dobrze ustrukturyzowane, z jasnymi nagłówkami i punktami. To prawda. Ale kiedy przenosimy tę zasadę do treści na stronę, często otrzymujemy tekst, który czyta się jak instrukcję obsługi pralki. Brakuje naturalnych przejść między akapitami, opowieści, case studies z prawdziwego życia.
Przykład z rynku: Firma SaaS z branży HR stworzyła artykuł o rekrutacji technicznej. Zamiast opowiedzieć historię o tym, jak rozwiązali problem dla konkretnego klienta (anonimizowaną), stworzyli listę 15 „najlepszych praktyk”, każda opisana w 2 zdaniach. Tekst był optymalny pod ChatGPT, ale ludzie opuszczali stronę po 30 sekundach – bounce rate wzrósł do 78%.
2. Ignorowanie intencji użytkownika na rzecz „kompletności”
Algorytmy AI cenią sobie kompletne odpowiedzi. W odpowiedzi wiele firm zaczyna tworzyć „encyklopedyczne” treści, które próbują objąć każdy możliwy aspekt tematu. W efekcie artykuł o „wdrażaniu TypeScript w małym zespole” zaczyna zawierać sekcje o historii JavaScript, porównaniu wszystkich frameworków i przyszłości WebAssembly – wszystko w 2000 słów.
Co się dzieje w Google? Algorytm widzi, że treść jest rozmyta tematycznie. Zamiast być ekspertem w jednym, wąskim temacie, strona próbuje być ekspertem we wszystkim. W długim terminie to niszczy autorytet tematyczny (E-A-T), który Google coraz mocniej premiuje.
3. Zanik głosu marki i autentyczności
To największe zagrożenie, które obserwuję. Firmy technologiczne, które przez lata budowały rozpoznawalny głos marky – konkretny, ekspercki, ale z ludzką twarzą – nagle zaczynają pisać jak ChatGPT. Wszystkie teksty brzmią tak samo: neutralnie, bezosobowo, „obiektywnie”.
Dlaczego to problem? Ludzie nie kupują od algorytmów. Kupują od ludzi i firm, które rozumieją ich problemy. Kiedy tracisz autentyczny głos, tracisz zaufanie. Widziałem to w analizie dla platformy e-learningowej – po „optymalizacji pod AI” wskaźnik rezygnacji z subskrypcji wzrósł o 17%. Użytkownicy w ankietach pisali: „straciłem poczucie, że to ludzie za tym stoją”.
Jak Google reaguje na tę zmianę?
Warto zrozumieć perspektywę wyszukiwarki. Google od lat walczy z treściami tworzonymi pod algorytmy, a nie ludzi. Teraz ma nowego przeciwnika: treści tworzone pod inne algorytmy (AI). Z moich obserwacji i testów wynika, że:
- Google coraz lepiej rozpoznaje „AI-optimized” content – nie chodzi o to, czy treść jest generowana przez AI, ale czy jest zaprojektowana pod algorytmy, a nie ludzi
- Czasy spędzone na stronie spadają – gdy treść jest nadmiernie ustrukturyzowana pod AI, ludzie szybciej znajdują odpowiedź i wychodzą
- Wzrasta znaczenie sygnałów zaangażowania – komentarze, udostępnienia, powroty użytkowników stają się ważniejsze niż kiedykolwiek
Praktyczne podejście: jak balansować między AI a ludźmi
W JurskiTech pracujemy nad strategią, którą nazywamy „Human-First AI Optimization”. Chodzi o to, żeby tworzyć treści, które:
- Są przydatne dla ChatGPT/Gemini – tak, żeby były cytowane w odpowiedziach AI
- Ale przede wszystkim są wartościowe dla ludzi – żeby użytkownik, który trafi na stronę, został dłużej, zaangażował się, może nawet skontaktował
Konkretne techniki, które testujemy:
- Sekcja „dla AI” na końcu artykułu – podsumowanie kluczowych punktów w formie zoptymalizowanej pod AI, ale główna treść pisana pod ludzi
- Różne formaty dla różnych kanałów – to, co publikujemy na blogu, różni się od tego, co optymalizujemy pod odpowiedzi AI
- Monitorowanie nie tylko ruchu, ale i kontekstu – śledzimy, z jakich pytań użytkownicy trafiają przez AI, i dostosowujemy treść, ale nie rezygnując z głosu marki
Przypadek z rynku: jak jedna firma znalazła złoty środek
Anonimizowany przykład: platforma do automatyzacji marketingu dla małych firm. Mieli problem – ich bardzo osobiste, case study-based treści były słabo indeksowane przez narzędzia AI. Zamiast przepisywać wszystko, wprowadzili dwie zmiany:
- Do każdego artykułu dodali „Executive Summary” na początku – 3 akapity czystych faktów, danych, konkretów
- Główną część artykułu pozostawili w formie opowieści, z prawdziwymi przykładami, błędami, emocjami
Rezultat po 3 miesiącach:
- Cytowania w odpowiedziach AI wzrosły o 40%
- Czas spędzony na stronie… również wzrósł o 15%
- Konwersje z bloga wzrosły o 22%
Dlaczego to zadziałało? AI chwytało się executive summary, ale ludzie wciągali się w główną narrację.
Podsumowanie: nie wyrzucaj dziecka z kwaterą AI
Trend jest jasny – asystenci AI stają się nowym kanałem dotarcia do klientów. Ignorowanie tego to błąd. Ale optymalizowanie pod nich kosztem prawdziwych użytkowników to większy błąd.
Kluczowe wnioski:
- ChatGPT nie jest Twoim końcowym odbiorcą – jest pośrednikiem
- Nadmierna optymalizacja pod AI niszczy autentyczność, która buduje zaufanie
- Google coraz lepiej wykrywa treści tworzone pod algorytmy (nawet jeśli to nie ich algorytmy)
- Rozwiązaniem jest balans – treść musi działać zarówno dla AI, jak i ludzi
W JurskiTech widzimy to jako kolejną ewolucję SEO – nie rewolucję, która wymaga porzucenia wszystkiego, co działało. To raczej dodanie nowej warstwy do istniejącej strategii contentowej. Najlepsze firmy technologiczne, z którymi pracujemy, rozumieją, że ich siłą jest nie tylko technologia, ale też ludzka perspektywa. I tego nie warto poświęcać dla kilku dodatkowych cytowań w odpowiedziach AI.
Perspektywa na 2024/2025: Spodziewam się, że Google wprowadzi kolejne aktualizacje, które będą premiować treści autentyczne, głębokie i tworzone z myślą o końcowym użytkowniku – nawet jeśli te treści są też przyjazne dla AI. Firmy, które znajdą ten balans, zyskają podwójnie: w wynikach wyszukiwania i w odpowiedziach asystentów AI.





