Koniec ery otwartych danych. Jak usunięcie &num=100 redefiniuje przyszłość wyszukiwania i SEO.

We wrześniu 2025 roku Google dokonało pozornie niewielkiej, lecz przełomowej zmiany – usunięto parametr &num=100, który przez lata umożliwiał wyświetlanie stu wyników wyszukiwania na jednej stronie. To nie była zwykła aktualizacja techniczna, ale przemyślana strategia mająca na celu przekształcenie Google w zamknięty ekosystem informacyjny.

Ta decyzja natychmiast wywołała chaos w branży SEO. Koszty działania narzędzi analitycznych wzrosły dziesięciokrotnie, ponieważ zamiast jednego odpytania o 100 wyników, trzeba odpytać 10x. Zmusiło to wiele firm do podniesienia cen lub ograniczenia usług np. Semrush czy Ahrefs już zapowiedziały pokazywanie tylko top20. Za tą zmianą kryją się złożone motywacje: ochrona cennych danych przed masowym pobieraniem, wywieranie presji ekonomicznej na firmy trzecie oraz wdrażanie długofalowej strategii przygotowującej grunt pod AI Overviews.

Koniec epoki zaawansowanych użytkowników

Chronologia wdrożenia (Wrzesień 2025)

Eliminacja parametru &num=100 nie nastąpiła z dnia na dzień. Około 11-12 września 2025 pierwsze sygnały alarmowe dotarły od użytkowników na całym świecie – funkcja działała niestabilnie, czasem pokazując 100 wyników, czasem wracając do domyślnych dziesięciu. To wskazywało na prowadzenie przez Google szeroko zakrojonych testów A/B.

Ta faza pozwoliła firmie zidentyfikować narzędzia i boty intensywnie korzystające z tej funkcji. Ostateczne, globalne wyłączenie nastąpiło 14-15 września, co potwierdziły platformy analityczne jak Keyword Insights, raportujące masowe awarie systemów monitorowania pozycji.

Mechanika zmiany: analiza techniczna

Parametr &num=100 był prostym, ale kluczowym narzędziem dla analityków SEO – pozwalał pobrać obszerny zestaw danych jednym zapytaniem, minimalizując koszty i złożoność techniczną.

Jego usunięcie radykalnie zmienia równanie. Zamiast jednego zapytania o 100 wyników, konieczne staje się wykonanie dziesięciu oddzielnych zapytań po 10 wyników każde. To nie tylko dziesięciokrotnie zwiększa liczbę zapytań, ale także naraża automatyczne systemy na mechanizmy obronne Google, uruchamiając nasilone pojawianie się testów CAPTCHA.

Historyczny kontekst ograniczania kontroli

Usunięcie &num=100 wpisuje się w długoterminowy trend ograniczania przez Google kontroli użytkowników:

  • 2018: Usunięcie z ustawień wyników wyszukiwania dla zwykłego usera opcji stałego definiowania liczby wyników
  • 2022: Wprowadzenie „ciągłego przewijania”, likwidacja tradycyjnej paginacji
  • 2024: Częściowy powrót paginacji, ale bez przywrócenia konfiguracji liczby wyników

Ten wzorzec ujawnia spójną strategię – odchodzenie od modelu aktywnego pobierania danych przez użytkownika na rzecz dostarczania starannie wyselekcjonowanych odpowiedzi przez platformę.

Ekosystem SEO w stanie chaosu

Dzień „końca świata narzędzi”

Po 14 września większość platform monitorujących pozycje w Google zaczęła raportować niedokładne lub fragmentaryczne dane. Awarie objęły kluczowe funkcje:

  • Śledzenie pozycji słów kluczowych: Dane rankingów poza pierwszą stroną stały się niewiarygodne
  • Analiza konkurencji: Drastyczne ograniczenie możliwości badania widoczności konkurentów
  • Badanie intencji wyszukiwania: Znaczące utrudnienie analizy charakteru wyników na szeroką skalę

Nowa ekonomia danych: rewolucja kosztów

Najdotkliwszą konsekwencją jest istotna zmiana ekonomii pozyskiwania danych. Przejście z jednego na dziesięć zapytań oznacza co najmniej dziesięciokrotny wzrost kosztów operacyjnych, obejmujących:

  • Zwiększone zużycie zasobów serwerowych
  • Infrastrukturę do omijania zabezpieczeń Google
  • Usługi automatycznego rozwiązywania CAPTCHA

Ten mnożnik kosztów zagraża modelom biznesowym wielu firm, prowadząc do wzrostu cen subskrypcji lub redukcji funkcjonalności.

Różnorodne reakcje kluczowych graczy

Czołowi dostawcy narzędzi SEO zareagowali odmiennie:

  • AccuRanker: Oficjalnie zakończył śledzenie Top 100, przechodząc na monitoring jedynie Top 20
  • Semrush: Zapewnił o dokładności danych Top 10, przyznając jednocześnie wdrożenie „tymczasowych rozwiązań” dla dalszych pozycji
  • seoClarity: Zadeklarował, że użytkownicy nie odczuli negatywnych skutków, sugerując wykorzystanie zaawansowanych metod pozyskiwania danych
  • Senuto: również zostało dotknięte tym problemem (pracują obecnie nad rozwiązaniem pobierania danych dla top50)
  • Google Search Console: co ciekawe, problem dotknął również danych w GSC – przykład poniżej

Google Search Console też „oberwało”.

Na screenie widać wzrost średniej pozycji, bez zmiany liczby wyświetleń czy ruchu. Choć są zgłaszane przypadki, gdzie następuje drastyczny spadek wyświetleń.

źródła: Brodie Clark na LinkedIn

A gdy porównamy desktop vs mobile – widać, że problem dotyka jedynie desktop (na mobile już od dawna nie ma opcji 100 wyników).

Przykład:

Przed zmianą miałeś średnią pozycję na poziomie 50, na którą składały się np pozycje 10 i 90 (duże przejaskrawienie, ale pokazuje, co się zmieniło), czyli prosty rachunek (10+90)/2=50. Obecnie Google przestał raportować pozycje powyżej 20, czyli mamy (10+20)/2=15. Twoja średnia pozycja wzrosła do 15 (sci!). Ale fraza nadal pojawia się w okolicach 90 pozycji, tylko Google widzi ją jako 20+. Niezły mindfuck 😉

Strategiczne motywacje Google

Budowanie „zamkniętego ogrodu”

Głównym celem jest utrudnienie masowego scrapingu danych – w dobie wyścigu AI dane z wyszukiwarki stanowią strategiczny zasób. Firmy rozwijające modele językowe wykorzystują je do trenowania systemów, stanowiąc bezpośrednie zagrożenie dla dominacji Google.

Ograniczając dostęp do wyników, Google wznosi wyższy mur wokół swojego „ogrodzonego ogrodu” danych, utrudniając konkurentom analizę unikalnych zasobów.

Monetyzacja i dominacja rynkowa

Decyzja ma solidne fundamenty ekonomiczne:

  1. Zwiększone przychody z reklam: Zmuszenie do przeglądania większej liczby stron naturalnie podnosi liczbę wyświetleń reklam
  2. Presja na branżę SEO: Podniesienie kosztów dla branży narzędzi SEO można traktować jako nałożenie „podatku”, osłabiającego finansowo firmy trzecie

Przyszłość napędzana AI

Zmiana harmonizuje z wizją wyszukiwania, gdzie tradycyjne listy linków zastępują odpowiedzi generowane przez AI (AI Overviews czy AI mode). W tym modelu przeglądanie 100 wyników staje się archaiczne – ograniczając tę opcję, Google przyzwyczaja użytkowników do nowego stylu interakcji.

Strategia milczenia

Najbardziej znaczące jest całkowite milczenie Google – brak jakiegokolwiek oficjalnego komunikatu. To świadoma demonstracja siły: działając po cichu, firma unika konfrontacji, stawiając branżę przed faktem dokonanym. To sygnał, że Google nie traktuje już społeczności SEO jako partnerów, lecz jako rynek, któremu można dyktować jednostronne warunki.

Nawigacja w nowej rzeczywistości

Wyzwania dla platform SEO

Platformy analityczne muszą radzić sobie z barierami technicznymi Google, takimi jak limity zapytań i CAPTCHA, wymagając inwestycji w kosztowną infrastrukturę obejmującą sieci proxy i systemy maskowania.

Oficjalne API Google, jak Search Console, oferują ograniczony dostęp do danych, nie zastępując bezpośredniego scrapingu, szczególnie w analizie konkurencji.

Niewidoczne konsekwencje: nauka i dziennikarstwo

Skutki wykraczają poza SEO – zmiana stanowi poważne utrudnienie dla badaczy akademickich i dziennikarzy śledczych, którzy wykorzystywali masową analizę wyników do badania trendów społecznych i dezinformacji. Wzrost kosztów dostępu może spowolnić postęp badań i podważyć ich replikowalność, wzmacniając kontrolę Google nad dyskursem o świecie cyfrowym.

Rekomendacje i wnioski

Dla agencji SEO i zespołów wewnętrznych

Konieczne działania obejmują:

  1. Dywersyfikację źródeł danych: Zmniejszenie zależności od jednego źródła poprzez integrację Google Search Console, Bing Webmaster Tools i własnych systemów analitycznych
  2. Fokus na metrykach biznesowych: Priorytetowanie analizy ruchu, konwersji i przychodów nad monitoringiem setek słów kluczowych
  3. Edukację klientów: Transparentną komunikację o nowych realiach i ograniczeniach raportowania

Dla dostawców narzędzi SEO

Branża stoi przed wyzwaniem transformacyjnym:

  • Inwestycje w odporną technologię: Rozwój zaawansowanych, etycznych technologii scrapingu lub poszukiwanie alternatywnych źródeł danych
  • Transparentność: Użytkownicy muszą znać metodologię zbierania danych i potencjalne ograniczenia
  • Innowacje poza rankingami: Rozwijanie funkcji mniej zależnych od danych SERP – auditów technicznych, analiz treści, integracji z AI

Sumując

Usunięcie parametru &num=100 to więcej niż zmiana techniczna – to symboliczny krok w stronę absolutnej kontroli Google nad swoim ekosystemem. Przyspiesza transformację wyszukiwarki z otwartego narzędzia w zamkniętą platformę dostarczającą odpowiedzi.

Era swobodnej analizy danych wyszukiwarki dobiega końca, ustępując miejsca nowemu porządkowi, gdzie zasady gry dyktuje wyłącznie właściciel platformy. To nie koniec świata SEO, ale definitywny koniec świata, jaki znaliśmy.

Podobne wpisy