Google Discover to nie jeden algorytm. To 20 oddzielnych maszyn.
Google Discover działa inaczej niż sugeruje większość poradników znalezionych w Internecie. To nie jeden algorytm z jednym zestawem reguł. Discover składa się z ponad 20 wyspecjalizowanych pipeline’ów – niezależnych modułów selekcji treści, z których każdy ma własne kryteria doboru, osobny zasięg i inny cykl życia artykułu. Pipeline odpowiedzialny za wiadomości lokalne działa na zupełnie innych zasadach niż ten obsługujący treści produktowe czy virale z social media.
Wiemy to dzięki analizie opublikowanej w marcu 2026 przez zespół badawczy 1492.vision, opartej na analizie 42 milionów kart z feedów Discover zebranych z setek urządzeń na rynku francuskim przez trzy miesiące (grudzień 2025 – luty 2026).
Mam za sobą audyty serwisów z milionami podstron i wieloletnią pracę z wydawcami newsowymi. Jedna rzecz, której nie umiałem do tej pory wyjaśnić klientom w sposób mechanistyczny: dlaczego ten sam serwis, z tym samym E-E-A-T, z tą samą częstotliwością publikacji, dostaje z Discover zupełnie inny ruch na treściach lokalnych niż na treściach produktowych. Albo, dlaczego artykuł o wypadku w Nowym Sączu zbiera 80 tysięcy wyświetleń, a pogłębiona analiza rynku nieruchomości na tym samym serwisie ledwo drapie 3 tysiące. Różnica w tytułach? Nie. Różnica w zdjęciach? Nie. Odpowiedź, jak się okazuje, leży w architekturze samego mechanizmu selekcji Google Discover.
Jeśli czytałeś mój wcześniejszy tekst o tym, czym jest Google Discover, traktuj go jako mapę. Ten artykuł to zdjęcie satelitarne w wysokiej rozdzielczości.
Skąd w ogóle wiemy, że pipeline’y istnieją
Zanim przejdziemy do szczegółów, warto wyjaśnić, skąd te dane pochodzą. Google nie opublikował dokumentacji pipeline’ów Discover. Nikt w Google tego nie potwierdził. Wiedza pochodzi z dwóch źródeł.
Pierwsze: reverse engineering SDK Google przez Metehana Yesilyurta. Dekompilacja publicznego kodu Google App (narzędziami typu jadx) ujawniła nazwy wewnętrznych identyfikatorów: moonstone, mustntmiss, creatorcontent i kilkanaście innych. Same nazwy, bez kontekstu co robią.
Drugie: dane obserwacyjne 1492.vision. Zespół zebrał 42 miliony kart Discover z setek urządzeń za pośrednictwem panelu badawczego (prawdopodobnie z użyciem VpnService API na Androidzie, czyli legalnej metody przechwytywania ruchu bez roota). Każda karta zawierała identyfikator pipeline’u. Po trzech miesiącach zbierania danych na rynku francuskim (grudzień 2025 – luty 2026) wyłonił się obraz systemu.
Zaznaczam: to są interpretacje danych obserwacyjnych. Nie mamy dostępu do wnętrza systemu Google. Ale same identyfikatory pipeline’ów i ich statystyki to twarde dane empiryczne. Ktoś powie, że to mała próbka. 42 miliony kart to nie jest mała próbka.
Dekompilacja SDK i obserwacja zachowań systemu to zresztą nic nowego w SEO. Tak badaliśmy algorytm wyszukiwarki od końca lat 90. Wtedy mieliśmy dwustu webmasterów wymieniających się obserwacjami na forach. Teraz mamy panel badawczy z setkami urządzeń i 42 miliony punktów danych. Metoda ta sama, skala inna.
Sześć warstw, dwadzieścia maszyn
Zanim pójdziemy dalej: słowo „pipeline” w tym kontekście wymaga wyjaśnienia, bo nie ma dobrego polskiego odpowiednika. Pipeline to wyspecjalizowany moduł systemu, który odpowiada za jeden typ zadania. Działa jak linia produkcyjna w fabryce: na wejściu dostaje pulę artykułów, w środku filtruje je według własnych kryteriów (tematyka, sygnały zaangażowania, świeżość, lokalizacja), a na wyjściu podaje wyselekcjonowane treści do feedu użytkownika. Każdy pipeline ma własną logikę, własny zasięg i własne tempo. Discover to nie jedna linia. To dwadzieścia linii (przetwarzających dane) pracujących równolegle.
Pipeline’y układają się w sześć warstw funkcjonalnych:
- fundament redakcyjny,
- wiadomości bieżące,
- trendy,
- lokalne/geo,
- social/video
- i warstwa komercyjna.
Każda warstwa odpowiada za inny typ treści i inny sposób dobierania go do użytkownika.
Poniżej zestawienie wszystkich zidentyfikowanych pipeline’ów na podstawie danych 1492.vision i analizy SDK przez Yesilyurta. Podaję reach (procent urządzeń, do których trafia wybrany URL) i medianę świeżości tam, gdzie dane są dostępne (na podstawie badań rynku francuskiego).
Warstwa 1: Fundament redakcyjny
| Pipeline | Reach | Świeżość (mediana) | Rola |
|---|---|---|---|
| content | 9,9% | – | Główna autostrada systemu, punkt wejścia dla większości URLi |
| moonstone | 19,3% | 17,6h | Amplifikator engagement: wąska pula, szeroki zasięg |
| mustntmiss | – | – | Treści o wysokim autorytecie redakcyjnym, „nie wolno przegapić” |
| aura | – | – | Pipeline powiązany z jakością treści i autorytetem domeny |
Warstwa 2: Wiadomości bieżące
| Pipeline | Reach | Świeżość (mediana) | Rola |
|---|---|---|---|
| breaking | – | <1h | Newsy z ostatniej chwili, bardzo krótkie okno życia |
| liveevent | – | – | Relacje z wydarzeń na żywo |
Warstwa 3: Trendy i virale
| Pipeline | Reach | Świeżość (mediana) | Rola |
|---|---|---|---|
| deeptrends | – | – | Treści trendowe o dłuższym cyklu życia |
| creatorcontent | – | – | Treści z social media (X, YouTube), wzrost 33x w 3 miesiące |
Warstwa 4: Lokalne i geo
| Pipeline | Reach | Świeżość (mediana) | Rola |
|---|---|---|---|
| webkicklocalstories | – | – | Prasa regionalna, 67% URLi ekskluzywnych |
Warstwa 5: Social i video
| Pipeline | Reach | Świeżość (mediana) | Rola |
|---|---|---|---|
| videocontent | – | – | Treści wideo, głównie YouTube |
| shortvideo | – | – | Krótkie formaty wideo (Shorts, Reels) |
Warstwa 6: Warstwa komercyjna
| Pipeline | Reach | Świeżość (mediana) | Rola |
|---|---|---|---|
| shoppinginspiration | – | 3,7 dnia | Treści produktowe, recenzje, rankingi; silosowany |
Pipeline w fazie wygaszania (prawdopodobnie)
| Pipeline | Zmiana | Rola |
|---|---|---|
| userpersonascontent | −73% | Personalizacja na bazie statycznych profili użytkowników |
Kilka pipeline’ów z listy Yesilyurta nie pojawiło się w danych obserwacyjnych 1492.vision – prawdopodobnie zostały wygaszone lub działają na innych rynkach. Google testuje, włącza i wyłącza moduły. Ta lista to stan na przełomie 2025/2026, nie stały układ.
Nie będę opisywał wszystkich. Skupię się na tych, które mają realne konsekwencje dla wydawcy w Polsce.
content – autostrada, przez którą przechodzi wszystko
Pipeline content to baza systemu. Reach na poziomie 9,9%, co oznacza, że wybrany URL trafia do mniej więcej co dziesiątego urządzenia. Większość artykułów zaczyna swoją drogę przez Discover właśnie tutaj.
Sam content nie jest szczególnie selektywny. Pełni rolę wstępnego filtra: przepuszcza treści, które spełniają podstawowe kryteria jakości i tematycznego dopasowania do użytkownika. To, co dzieje się potem, jest ciekawsze.
moonstone – wzmacniacz tego, co już działa
Moonstone to pipeline broadcastowy. Bierze wąską pulę artykułów (około 4,5 razy węższą niż content) i wyświetla je znacznie większej liczbie urządzeń. Reach: 19,3%, czyli prawie dwukrotność content. Mediana wieku artykułu w moonstone: 17,6 godziny.
Na jakiej podstawie moonstone wybiera? Sygnały zaangażowania. Kliki. W danych 1492.vision nadreprezentowane są horoskopy (3,5-krotnie względem średniej), zakłady i gry (3,3-krotnie), rozrywka, pogoda, kryminał lokalny z ogólnokrajowym wydźwiękiem. Klasyczna formuła: to, co ludzie klikają.
Ale tu jest haczyk. 85% URLi w moonstone pojawia się wcześniej w content. To oznacza, że moonstone nie wybiera artykułów z góry. Artykuł najpierw wchodzi przez content, zbiera tam kliki, i dopiero wtedy moonstone go podnosi i rozsyła szerzej. To mechanizm amplifikacji po fakcie, nie selekcji.
Praktyczna konsekwencja: nie da się pisać „pod moonstone”. Pisze się pod content, a moonstone sam zdecyduje na podstawie tego, co się stanie w pierwszych godzinach po publikacji. Tytuł i zdjęcie główne muszą generować kliki natychmiast, bo okno czasowe jest krótkie.
Widziałem to wielokrotnie w danych polskich wydawców, tyle że do tej pory nie miałem nazwy na ten mechanizm. W GA4, po przefiltrowaniu ruchu z Discover do widoku godzinowego, widać wyraźny wzorzec: artykuł albo zbiera ruch przez 4-6 godzin i potem stopniowo gaśnie, albo po tych pierwszych godzinach nagle dostaje drugi impuls i sesje rosną skokowo. Ten drugi impuls to prawdopodobnie moment, w którym moonstone go podnosi. Artykuły, które nie zebrały odpowiedniego CTR w oknie startowym, tego drugiego impulsu nie dostają. Płasko rosną, płasko gasną.
Na rynku francuskim w moonstone dominuje regionalny dziennik Ouest-France, a nie np. BFM TV, który jest liderem wolumenowym. Ouest-France trafia tam dzięki treściom łączącym lokalne zakotwiczenie z ogólnokrajowym rezonansem: lokalne sprawy kryminalne, pogoda regionalna, wydarzenia z prowincji, które budzą emocje w całym kraju. Dla polskich wydawców regionalnych to obserwacja warta zapamiętania.
mustntmiss – autorytet redakcyjny, nie masa
Nazwa mówi sama za siebie: „nie wolno przegapić”. W danych francuskich dominuje tu Le Monde, a nie BFM TV. BFM produkuje więcej treści, Le Monde ma wyższy autorytet tematyczny. Google wyraźnie odróżnia jedno od drugiego.
Dla polskiego rynku to oznacza, że rzetelne, pogłębione materiały na tematy polityczne, gospodarcze czy międzynarodowe mają własną ścieżkę do feedu Discover. Ścieżkę, na której liczy się reputacja źródła, a nie szybkość publikacji ani liczba artykułów dziennie.
Gdybym miał postawić hipotezę o polskim odpowiedniku: Le Monde to w naszych warunkach bardziej Polityka, Tygodnik Powszechny czy OKO.press niż serwisy produkujące 300 artykułów dziennie. BFM TV to nasi wydawcy lifestylowo-newsowi, którzy gonią wolumen. Jedni i drudzy mogą być w Discover, ale prawdopodobnie przez różne pipeline’y o różnym zasięgu. Nie mam twardych danych, żeby to potwierdzić na polskim rynku, ale wzorzec z danych francuskich jest wyraźny.
webkicklocalstories – osobna droga dla prasy regionalnej
Ten pipeline interesuje mnie szczególnie w kontekście polskiego rynku. 67% URLi w webkicklocalstories to treści ekskluzywne, czyli takie, które nie pojawiają się w żadnym innym pipeline. To dedykowany kanał dla prasy regionalnej.
Polskie media regionalne często postrzegają swoje lokalne zakotwiczenie jako słabość w kontekście Discover. Serwisy ogólnokrajowe mają większy ruch, więcej treści, silniejszą markę. Tymczasem dane z rynku francuskiego sugerują coś odwrotnego: lokalność to przepustka do osobnego pipeline’u, do którego ogólnopolskie media nie mają dostępu.
Warunek: treść musi być mocno osadzona w konkretnym miejscu. Nazwy miejscowości, lokalne wydarzenia, samorząd, sprawy sąsiedzkie. Im bardziej specyficzne geograficznie, tym lepiej.
W Polsce mamy sporo wydawców regionalnych, którzy produkują treści wysokiej jakości, ale strategicznie myślą o sobie jako o „małych graczach” obok Onetu czy WP. Te dane potwierdzają się na polskim rynku, czyli serwisy typu NaszeMiasto, eKraków, Wrocław.pl czy lokalne oddziały Gazety Wyborczej mają dostęp do kanału dystrybucji, o który Onet i WP nie mogą nawet konkurować. Artykuł o remoncie ulicy Dietla w Krakowie nie przebije się przez content obok newsów o wyborach, ale ma szansę trafić do osobnego pipeline’u, gdzie rywalizuje tylko z innymi treściami lokalnymi. To jest zupełnie inna gra.
shoppinginspiration – silos, z którego się nie wychodzi
Recenzje produktów, rankingi, porównania cenowe. Treści produktowe wpadają do pipeline’u shoppinginspiration i tam zostają. Czas życia artykułu w tym pipeline jest długi (mediana 3,7 dnia, czyli 8 razy dłużej niż w newsach), ale artykuł z shoppinginspiration praktycznie nie przechodzi do moonstone, mustntmiss ani innych pipeline’ów o dużym zasięgu.
To strukturalny problem dla serwisów, które publikują dużo treści z recenzjami i rankingów. Treści trafiają do Discover, ale w kanale o ograniczonym zasięgu i bez możliwości wzmocnienia zasięgu.
Prawdopodobne rozwiązanie: dodanie do artykułu produktowego kąta redakcyjnego – kontekstu rynkowego, trendu branżowego, stanowiska eksperta – może przekierować go do pipeline’ów aura lub content, skąd ma szansę trafić dalej. Samo „Ranking 10 najlepszych odkurzaczy 2026″ zostanie w silosie. „Dlaczego producenci odkurzaczy masowo przechodzą na silniki bezszczotkowe i co to zmienia w ofercie” ma szansę wyjść.
Pracuję teraz z klientem e-commerce, którego serwis Google traktuje jako informacyjny zamiast transakcyjny. Discover wysyła mu ruch na artykuły poradnikowe, ale treści produktowe są niewidoczne. W świetle danych o shoppinginspiration to ma sens: treści produktowe wpadają do silosu z niskim zasięgiem, a poradnikowe lecą przez content z szansą na moonstone. Paradoksalnie klient powinien traktować swoje poradniki nie jako wsparcie sprzedaży, a jako osobny kanał akwizycji z Discover, i projektować je z myślą o kliknięciach w pierwszych godzinach.
creatorcontent – eksplozja z social media
Wzrost 33-krotny w ciągu trzech miesięcy. Na rynku francuskim 75% treści w tym pipeline pochodzi z X (Twittera), a nie z YouTube. Tematycznie dominuje sport (46,8% zawartości).
Dla wydawców sportowych to sygnał: treści osadzone w kontekście dyskusji toczących się na X wracają do Discover przez osobny pipeline. Relacja na żywo z meczu z komentarzami nawiązującymi do tego, co mówią kibice w social media, ma tu inną drogę dystrybucji niż klasyczny raport pomeczowy.
Wzrost creatorcontent o 33x w trzy miesiące to też sygnał, że Google aktywnie rozwija ten pipeline. Warto obserwować, czy ten trend utrzyma się w kolejnych kwartałach.
Artykuł nie ma jednej szuflady
Jedno z najważniejszych ustaleń z danych 1492.vision: 58% URLi pojawia się w dwóch lub więcej pipeline’ach jednocześnie. Multi-pipeline to norma, nie wyjątek.
Artykuł o awarii tramwajów w Krakowie może jednocześnie pojawić się w content (bo spełnia ogólne kryteria), w webkicklocalstories (bo dotyczy konkretnego miasta) i w moonstone (bo zebrał dużo kliknięć w pierwszej godzinie). Każdy z tych pipeline’ów wyświetli go innej grupie użytkowników.
To zmienia sposób myślenia o „optymalizacji pod Discover”. Nie optymalizujesz pod jeden algorytm. Optymalizujesz wejście do systemu (pipeline content), a potem system sam decyduje, które dodatkowe kanały dystrybucji otworzy.
Co umiera: personalizacja profili użytkowników
Pipeline userpersonascontent spadł o 73% w ciągu trzech badanych miesięcy. To pipeline oparty na statycznych profilach użytkowników – „ten user lubi sport”, „tamten user interesuje się gotowaniem”.
Kierunek jest odwrotny do tego, czego można by oczekiwać, co wydaje się wbrew logice: Google odchodzi od prostych profili osobowościowych w stronę embeddingów i sygnałów real-time. System coraz bardziej opiera się na semantyce treści i encjach Knowledge Graph, a coraz mniej na statycznych kategoriach zainteresowań.
Dla wydawcy to oznacza, że poprawne oznaczenie encji (osób, miejsc, organizacji, wydarzeń) w treści – zarówno przez schema markup, jak i przez samą treść artykułu – staje się ważniejsze niż „trafienie w zainteresowania użytkownika”. Google nie potrzebuje profilu „lubi piłkę nożną”, jeśli potrafi semantycznie dopasować artykuł o transferze Roberta Lewandowskiego do aktualnych sygnałów zainteresowania użytkownika.
Ten sam trend widać w AI Search i w sposobie, w jaki modele językowe przetwarzają treści. Encje i relacje między nimi zastępują słowa kluczowe. To nie jest zmiana specyficzna dla Discover, to szerszy kierunek.
W przypadku GEO/AEO obserwuję ten sam mechanizm: systemy oparte na embeddingach i grafach wiedzy przestają potrzebować prostych etykiet w stylu „ten artykuł jest o sporcie”. Zamiast tego parsują treść na encje (Robert Lewandowski, FC Barcelona, La Liga, transfer, okno transferowe) i dopasowują ją do zapytań lub profili użytkowników na poziomie semantycznych relacji. Discover robi to samo, tyle że w drugą stronę: zamiast odpowiadać na zapytanie, proaktywnie wybiera treść na podstawie sygnałów zainteresowania. Ale silnik pod spodem coraz bardziej przypomina to, co robią LLM-y w AI Overviews. Kto dobrze oznaczy encje, wygrywa i tu, i tam.
Warto odnotować zbieżność czasową: spadek userpersonascontent o 73% pokrywa się z February 2026 Discover core update. Nie mam dowodu na związek przyczynowy, ale timeline się z grubsza zgadza. Jeśli Google właśnie wtedy przesunął wagę z personalizacji profilowej na sygnały real-time i embeddingi, to tłumaczyłoby zarówno spadki, jak i zmiany w rozkładzie ruchu, które wielu wydawców zaobserwowało w lutym.
Dlaczego nie sprawdzisz swoich pipeline’ów (i co zrobić zamiast tego)
Jeżeli dotarłeś/łaś do tego miejsca, prawdopodobnie chcesz jednego: zobaczyć, w którym pipeline są Twoje artykuły. Muszę być uczciwy – nie zrobić tego w prosty sposób. Identyfikatory pipeline’ów są widoczne w odpowiedziach API Discover, ale żeby je odczytać, potrzebujesz przechwycenia ruchu z aplikacji Google na Androidzie (VpnService API lub accessibility layer), opt-in panelu urządzeń testowych i infrastruktury do agregowania danych. 1492.vision robił to przez trzy miesiące na setkach urządzeń. Żadne (znane mi) dostępne na rynku narzędzie SEO tego nie oferuje. Pojedynczy wydawca nie postawi tej infrastruktury, bo koszt i złożoność techniczna są niewspółmierne do korzyści.
Jeśli któryś z dostawców narzędzi SEO to czyta – tu jest otwarta luka rynkowa.
Jest natomiast coś, co masz: raport Discover w Google Search Console i dane godzinowe z GA4. Nie zobaczysz tam nazwy pipeline’u, ale zobaczysz wzorce, które pozwalają wnioskować o mechanizmie dystrybucji.
Jak czytać dane GSC i GA4 przez pryzmat pipeline’ów
Dwa źródła danych, dwa poziomy szczegółowości.
Raport Discover w GSC daje wyświetlenia, kliknięcia i CTR per URL per dzień. To wystarczy do rozpoznania wzorców wielodniowych: czy artykuł żyje jeden dzień, czy trzy. Nie wystarczy do wykrycia impulsu moonstone, bo ten wydarza się w ciągu godzin, nie dni.
Do analizy godzinowej potrzebujesz GA4. W raporcie ustaw wymiary: ścieżka strony, data, godzina. Nie ustawiaj filtra źródła Session source = google i Session medium = discover (Discover raportuje się jako googleapis.com / referral lub wręcz norefferal – nie patrz na źródła, patrz na czas i wolumen). Dane godzinowe pokażą Ci to, czego GSC nie pokaże: czy artykuł dostał drugi impuls ruchu kilka godzin po publikacji.
Wzorce do szukania:
Artykuł, który zbiera ruch przez 4-6 godzin, potem opada, i nie wraca – przeszedł prawdopodobnie tylko przez content. Solidny jednorazowy strzał, bez amplifikacji.
Artykuł, który po początkowym ruchu (4-6 godzin) dostaje wyraźny drugi impuls – skok sesji w okolicach godziny 6-12 od publikacji – został prawdopodobnie podniesiony przez moonstone. Ten drugi impuls to moment, w którym moonstone go wybrał na podstawie zebranych sygnałów engagement i rozesłał do szerszej puli urządzeń. W danych dziennych GSC zobaczysz to jako wzrost wyświetleń w dniu 2 względem dnia 1, ale to jest grubsze przybliżenie.
Artykuł z długim ogonem – sesje rozłożone na 3-4 dni, niski dzienny wolumen, ale stabilny – sugeruje shoppinginspiration albo webkicklocalstories. Pipeline’y o dłuższym cyklu życia treści.
To nie jest pewna 100% identyfikacja. To proxy. Ale lepsze niż nic, i lepsze niż intuicja (wydajemisię).
Przykład: dwa artykuły, dwa wzorce
Serwis regionalny, ~100 artykułów dziennie. Dwa materiały opublikowane tego samego dnia, w podobnych godzinach:
- Artykuł A: relacja o wypadku na drodze krajowej. Trzy osoby ranne, droga zablokowana. Zdjęcie główne: karetka pogotowia i radiowóz na miejscu zdarzenia. Wynik w Discover: 54 tysiące wyświetleń. W GA4 widać wyraźny wzorzec: pierwsza fala sesji przez 4 godziny od publikacji, potem spadek, a w okolicach godziny 6-7 drugi impuls, który trwa do końca dnia i generuje więcej ruchu niż pierwsza fala. Następnego dnia jeszcze 12 tysięcy wyświetleń w GSC, potem cisza.
- Artykuł B: nowy plan zagospodarowania przestrzennego osiedla na obrzeżach miasta. Co się zmieni dla mieszkańców, jakie budynki powstaną. Zdjęcie: wizualizacja architektoniczna. Wynik w Discover: 3,2 tysiąca wyświetleń. W GA4: sesje równomiernie rozłożone, bez żadnego skoku. W GSC: ruch rozciągnięty na dwa dni, bez impulsu.
W świetle architektury pipeline’ów: artykuł A trafił przez content, zebrał kliki (kryminał, emocje, zdjęcie z miejsca zdarzenia), moonstone go podniósł — stąd ten drugi impuls i skokowy zasięg. Artykuł B trafił do content lub webkicklocalstories, ale bez wystarczającego sygnału engagement nie został „wzmocniony”. Nie znaczy to, że był gorszy – był po prostu w innym pipeline z innym mechanizmem.
Prompt do analizy ruchu z Discover
Masz dwa źródła danych i dostęp do dowolnego LLM-a (ChatGPT, Claude, Gemini). Poniżej dwa gotowe prompty – jeden dla danych godzinowych z GA4 (precyzyjniejszy, wykryje impuls moonstone), drugi dla danych dziennych z GSC (prostszy w przygotowaniu, wykryje wzorce wielodniowe).
Jak przygotować dane z GA4: w Eksploracji (Explore) ustaw wymiary: ścieżka strony (Page path), data, godzina. Metryki: sesje. Zakres: ostatnie 28 dni. Eksportuj do CSV.
Jak przygotować dane z GSC: w raporcie Discover ustaw zakres dat na ostatnie 28 dni, kliknij „Eksportuj”, pobierz CSV. Eksport zawiera URL, kliknięcia, wyświetlenia i CTR per dzień.
Prompt A — dane godzinowe z GA4 (zalecany)
Jesteś analitykiem SEO specjalizującym się w Google Discover.
Otrzymasz dane godzinowe z GA4 w formacie CSV
(ścieżka strony, data, godzina, sesje).
Twoim zadaniem jest:
1. Dla każdego URL zidentyfikuj godzinę pierwszej sesji
(godzina publikacji) i oblicz rozkład sesji w czasie:
- Ile sesji w pierwszych 4 godzinach od publikacji?
- Czy między godziną 5 a 12 od publikacji nastąpił wzrost
sesji względem godzin 1-4?
- Jak długo artykuł generował sesje (do 12h, do 24h, 2+ dni)?
2. Zaklasyfikuj każdy URL do jednego ze wzorców dystrybucji:
WZORZEC A — "content only":
Sesje skoncentrowane w pierwszych 4-6 godzinach, potem
stopniowe wygaszenie bez ponownego wzrostu.
Typowy artykuł w bazowym pipeline bez amplifikacji.
WZORZEC B — "moonstone candidate":
Po początkowym ruchu (godziny 1-4) widoczny DRUGI IMPULS
sesji między godziną 5 a 12 od publikacji
(wzrost co najmniej 50% względem godzin 3-4)
LUB łączna liczba sesji w top 10% całego zbioru.
Sugeruje amplifikację przez pipeline broadcastowy.
WZORZEC C — "long tail":
Sesje rozłożone na 2-4 dni, niski wolumen godzinowy
ale stabilny, bez wyraźnych impulsów.
Sugeruje pipeline o długim cyklu życia
(treści produktowe, lokalne).
WZORZEC D — "breaking":
Ekstremalnie wysokie sesje skoncentrowane
w pierwszych 1-2 godzinach, potem gwałtowne wygaszenie.
Sugeruje pipeline newsowy.
3. Dla każdego wzorca podaj:
- Listę URLi z tego wzorca
- Łączne sesje i rozkład czasowy
- Wspólne cechy tematyczne (jeśli widoczne z URLi)
- Średni czas od publikacji do szczytu sesji
4. Na końcu odpowiedz na pytania:
- Jaki procent artykułów trafia do wzorca B?
- Po ilu godzinach od publikacji następuje typowy
drugi impuls we wzorcu B?
- Czy widać korelację między tematyką a wzorcem?
- Które artykuły miały najwyższy ruch w godzinach 1-4
— i czy te same trafiły do wzorca B?
Dane:
[WKLEJ TUTAJ EXPORT CSV Z GA4 — DISCOVER, OSTATNIE 28 DNI]
Code language: JavaScript (javascript)
Prompt B — dane dzienne z GSC (uproszczony)
Jesteś analitykiem SEO specjalizującym się w Google Discover.
Otrzymasz dane z raportu Discover z Google Search Console
w formacie CSV (URL, kliknięcia, wyświetlenia, CTR, data).
Uwaga: dane z GSC mają granulację dzienną, nie godzinową.
Wzorce godzinowe (np. impuls moonstone po 4-6h)
mogą się schować w ramach jednego dnia.
Analiza jest mniej precyzyjna niż z danych GA4.
Twoim zadaniem jest:
1. Dla każdego URL oblicz rozkład wyświetleń w czasie:
- Jaki procent wyświetleń przypadł na dzień 1?
- Czy w dniu 2 lub 3 nastąpił wzrost
wyświetleń względem dnia 1?
- Ile dni artykuł generował wyświetlenia?
2. Zaklasyfikuj każdy URL do jednego z wzorców:
WZORZEC A — "content only":
80-100% wyświetleń w dniu 1, szybkie wygaszenie.
WZORZEC B — "moonstone candidate":
Wyraźny wzrost w dniu 2 (minimum 50% więcej niż dzień 1)
LUB łączne wyświetlenia w top 10% zbioru.
WZORZEC C — "long tail":
Wyświetlenia rozłożone na 3+ dni, stabilny wolumen.
WZORZEC D — "breaking":
Ekstremalnie wysokie wyświetlenia w jednym dniu,
CTR powyżej średniej.
3. Dla każdego wzorca podaj:
- Listę URLi
- Łączne wyświetlenia i średni CTR
- Wspólne cechy tematyczne
4. Odpowiedz na pytania:
- Jaki procent artykułów trafia do wzorca B?
- Korelacja tematyka vs wzorzec?
- Czy wysoki CTR w dniu 1 = wzorzec B?
Dane:
[WKLEJ TUTAJ EXPORT CSV Z GSC — RAPORT DISCOVER, 28 DNI]
Code language: JavaScript (javascript)
Prompt A (GA4, godzinowy) jest precyzyjniejszy i pozwala namierzyć impuls moonstone w ciągu dnia publikacji. Prompt B (GSC, dzienny) jest prostszy w przygotowaniu i wystarczy do rozpoznania wzorców wielodniowych – long tail vs jednorazowy strzał. Najlepiej użyć obu: GSC daje CTR i wyświetlenia (których GA4 nie ma), GA4 daje rozkład godzinowy (którego GSC nie ma).
Co z tego wynika operacyjnie
Monitoruj kształt krzywej, nie tylko łączny ruch. W raporcie Discover w GSC patrz na rozkład wyświetleń poszczególnych artykułów w czasie. Artykuły z podwójnym impulsem (skok w dniu 2) identyfikuj i analizuj: co miały wspólnego – temat, typ tytułu, zdjęcie, pora publikacji. To Twój pośredni wskaźnik amplifikacji.
Testuj warianty tytułów sekwencyjnie. Większość CMS-ów nie wspiera A/B testów tytułów w Discover. Możesz natomiast przez tydzień publikować z jednym typem tytułów (opisowe, konkretne), przez kolejny z innym (emocjonalne, z pytaniem). GSC da Ci CTR per artykuł. To nie jest randomizowany eksperyment, ale mierzalny.
Treści produktowe potrzebują kąta redakcyjnego. Sam ranking czy recenzja utknie w shoppinginspiration. Kontekst rynkowy, trend, opinia eksperta dają artykułowi szansę na dotarcie do szerszych pipeline’ów.
Prasa regionalna: grajcie w swoją grę. Webkicklocalstories to pipeline, w którym ogólnopolska konkurencja nie występuje. Im bardziej lokalna treść (nazwy ulic, rad miejskich, wydarzeń dzielnicowych), tym większa szansa na ekskluzywną dystrybucję.
Ograniczenia tych danych
Badanie 1492.vision dotyczy rynku francuskiego. Struktura pipeline’ów może się różnić między rynkami, choć nazwy identyfikatorów (widoczne w SDK) są globalne. Nie mamy porównywalnych danych dla polskiego rynku. To, co opisuję jako implikacje dla polskich wydawców, to moja interpretacja danych francuskich, nie bezpośredni pomiar.
42 miliony kart to dużo, ale to wciąż próbka z ograniczonej liczby urządzeń w jednym kraju. Google testuje pipeline’y, włącza i wyłącza je, zmienia wagi. Snapshot z trzech miesięcy nie musi odzwierciedlać stanu permanentnego.
I wreszcie: to są dane obserwacyjne, nie dokumentacja. Interpretujemy wzorce w danych, nie czytamy kodu źródłowego systemu. To samo robimy od 25 lat w SEO – obserwujemy, stawiamy hipotezy, testujemy. Tyle że teraz mamy 42 miliony punktów danych zamiast anegdot.
Najczęściej zadawane pytania
Czym są pipeline’y Google Discover?
Pipeline’y to wyspecjalizowane moduły wewnątrz systemu Google Discover, z których każdy odpowiada za selekcję i dystrybucję innego typu treści. Na podstawie analizy 42 milionów kart Discover (1492.vision, 2026) zidentyfikowano ponad 20 takich modułów. Każdy pipeline ma własne kryteria doboru treści, osobny zasięg (od kilku do niemal 20% urządzeń) i inny cykl życia artykułu. Artykuł nie trafia do „jednego algorytmu Discover” – trafia do jednego lub kilku pipeline’ów, które działają równolegle.
Ile pipeline’ów ma Google Discover?
Według danych z marca 2026 zidentyfikowano ponad 20 aktywnych pipeline’ów. Dodatkowo w kodzie SDK Google znajdują się nazwy około 10 pipeline’ów, które prawdopodobnie zostały wygaszone. System jest dynamiczny — Google testuje nowe moduły i wyłącza stare.
Czym jest moonstone w Google Discover?
Moonstone to pipeline broadcastowy, który bierze wąską pulę artykułów (około 4,5 razy mniejszą niż bazowy pipeline content) i wyświetla je prawie dwukrotnie większej liczbie urządzeń (reach 19,3% vs 9,9%). Moonstone wybiera artykuły na podstawie sygnałów zaangażowania (kliknięć) zebranych w pierwszych godzinach po publikacji. 85% URLi w moonstone pochodzi z pipeline’u content — to mechanizm amplifikacji, nie selekcji wstępnej.
Czy wydawca regionalny może trafić do Google Discover?
Tak, i ma do tego osobną ścieżkę. Pipeline webkicklocalstories jest dedykowany treściom lokalnym. Na rynku francuskim 67% URLi w tym pipeline to treści ekskluzywne, które nie pojawiają się w żadnym innym kanale Discover. Warunkiem jest mocne osadzenie treści w konkretnym miejscu: nazwy miejscowości, lokalne wydarzenia, sprawy samorządowe.
Jak zoptymalizować treści pod Google Discover w 2026?
Optymalizacja pod Discover to w praktyce optymalizacja pod pipeline content (punkt wejścia do systemu) i pierwsze godziny życia artykułu. Tytuł i zdjęcie główne muszą generować kliknięcia natychmiast, bo to one decydują o amplifikacji przez moonstone. Treści produktowe potrzebują kąta redakcyjnego, żeby uciec z silosu shoppinginspiration. Poprawne oznaczenie encji (schema markup, nazwy własne, powiązania z Knowledge Graph) staje się ważniejsze niż dopasowanie do kategorii zainteresowań użytkownika.
Czy pipeline’y Discover działają tak samo na każdym rynku?
Nazwy pipeline’ów (widoczne w SDK Google) są globalne, co sugeruje wspólną architekturę. Dane ilościowe (reach, rozkład treści) pochodzą jednak z badania rynku francuskiego. Nie mamy porównywalnych danych dla polskiego rynku. Struktura systemu jest prawdopodobnie wspólna, ale wagi i proporcje mogą się różnić między krajami.
Źródła:
