W marcu 2024 roku miałby miejsce dwie aktualizacje algorytmu Google: SPAM oraz CORE update. Niby nic wielkiego ale jednak wprowadziły one dość spore zamieszanie na rynku SEO. To co było bardzo ciekawe to fakt, że w pierwszym tygodniu Google rozdało mnóstwo banów a w następnym po serwisy wypadały poza top100 a ruch w GSC zamierał do zera. MIało to tez wpływ na ruch organiczny, discover i na CPC w reklamach.

Historia aktualizacji jest dostępna tutaj: https://status.search.google.com/products/rGHU1u87FJnkP6W2GwMi/history

Aktualizacja algorytmu Google – marzec 2024 – co wiemy

Wiemy na pewno, że mamy dwa artykuły na ten temat:

Google w marcu prowadziło szereg usprawnień w swoich algorytmach a w szczególności wprowadziło 3 nowe punkty do polityki antyspamowej. 

Dzisiaj ogłaszamy 3 nowe zasady dotyczące spamu, które mają zapobiegać stosowaniu popularnych od jakiegoś czasu złych praktyk, takich jak nadużycia dotyczące wygasłych domen, skalowane nadużycia dotyczące treści i nadużycia dotyczące reputacji witryny.

Te trzy nowe punkty to:

  • domeny wygasłe tzw expirki – czyli jak ktoś np. nie opłaci domeny a SEO widzi, że można ją kupić i postawić tam nowy content, dzięki któremu można wpływać na ranking w Google to jest to dla Google sygnał spamerski
  • nadużywanie reputacji domeny – do tej pory było to ujęte w sprzedaży i wymianie linków ale jak widać Google zwraca ponownie uiwagę i wprowadza zapewne nowy czynnik analityczny w przypadkach gdy domena o dobrej reputacji chce monetyzować ruch i zaczyna sprzedawać treści i/lub linki
  • nadużywanie treści na dużą skalę – jednak po angielski nazwa „scaled content” brzmi lepiej niż tłumaczenie. Oznacza to tyle, ze witryny, które publikują treści na dużą skalę ale jej wartość jest, oczywiście w oczach Google, mała lub zerowa to takie serwisy będą uznawane za spam. Tutaj zapewne chodzi o treści w języku angielskim gdzie takich serwisów newsowo-portalowych jest cała masa. W Polsce raczej nie ma takiej skali.

Przykład jak wygląda desktop w jednym z serwisów – śródtytuł a pomiędzy tym pełno reklam:

aktualizacja algorytmu google marzec 2024 - rozkład reklam wpływający na użyteczność

Dwie fale marcowej aktualizacji Google w 2024

Nie wiem czy ktokolwiek zwrócił uwagę ale dość ciekawie wyglądała skala i sposób wdrożenia algorytmu.

Pierwsza fala polegała na zbanowaniu wielu domen za naruszenie typu „pure spam” i tutaj można powiedzieć, że przewinień stron anglojęzycznych produkowanych na masową skalę było dużo (nie był to jeden sygnał). Dokonując analizy można by pokusić się o:

aktualizacja algorytmu Google - powiadomienie pure spam w GSC
  • trzy punkty powyżej łącznie – czyli dużo treści małej wartości, content produkowany na masową skalę i czasem wykorzystywanie expirek
  • treści generowane AI – i tutaj na pewno będzie duże pole do polemiki ponieważ zweryfikowanie treści AI narzędziami typu np. Originality jest trudne a wręcz obarczone dużym błędem. Ja wychodzę jednak z założenia, że jeśli Originality pokazuje mi powiedzmy 30-40% AI to treści raczej pisana jest „spod palca” i taki wynik można uznać za błąd narzędzia. Jednak jeśli w badanym tekście 100% mam AI (w różnych modelach) to raczej o pomyłce nie ma mowy. Niejednokrotnie już gołym okiem widać, że treści są copy&paste z ChatGPT
  • linki zwrotne – tutaj bardzo sporadycznie zdarzało się, że linki były problematyczne (money keywords)
  • przeoptymalizowanie reklamami – nawet firma pośrednicząca w sprzedaży reklam pokusiła się zwrócić uwagę, gdy piszemy właścicielom stron, że wykorzystują reklamy na spamerskich serwisach to uważała, że wszystko jest dobrze a osoby na forum Google dla Webmasterów szukają dziury w całym. Tylko problemem nie jest to, że te reklamy są w dużej ilości i rozkładają się automatycznie ale sposób ich wykorzystania z punktu widzenia pierwszego E w E-EAT. Zasłanianie tekstu plus thin content, na jednym z badanych serwisów naliczyłem 17 jednostek reklamowych gdzie tekstu było kilka linijek. Nota bene na polskim rynku (po rozmowie z jednym kolegą już wcześniej to zauważyliśmy), że problematyczny był szczególnie ogromny baner Ads w ATF. Rozkład reklam powodował, że na urządzeniu mobilnym praktycznie nie było widać tekstu, mega ciężka nawigacja i przebicie się do tekstu okropnie trudne. I to jest właśnie to, że ocena na urządzeniu mobilnym (zapewne) była negatywnym czynnikiem.
  • thin content – czyli mało treści lub zerowa treść. To jest pojęcie „względne” bo tak naprawdę mało treści nie zawsze jest problematyczne natomiast chodzi o zestawienie tej treści z … linkami afiliacyjnymi oraz rozmieszczeniem reklam. Na rynku polskim obserwuję dwa portale, które takiej karze mogłyby podlegać.

Chyba nie spotkałem kary typu „pure spam” na rynku polskim natomiast na forum Google dla Webmasterów było tego zatrzęsienie. I rozumiem właścicieli tych serwisów, bo niektóre z nich trwały latami (chyba najstarszy co dostał bana miał 4 czy 5 lat) wysoko na pozycjach a tutaj ZONK i BAN.

I to było w pierwszym tygodniu wdrożenia algorytmu. Co ciekawe w drugim tygodniu Google przestało banować serwisy a jedynie odsuwać je na dalekie pozycje co skutkowało utratą ruchu ale powiadomień w GSC o karze ręcznej nie było. Strony były zaindeksowane (według GSC) ale ruch z dnia na dzień po prostu zamierał. Problemy były identyczne jak w przypadku „pure spam” dlatego pozwoliłbym sobie nazwać taką karę „soft pure spam”, który nie powodował bana (usunięcie całkowite) tylko wypadnięcie serwisu z top100.

Całość wdrożenia poprzedziło wdrożenie algorytmów Helpful Content. I tutaj też można zauważyć jedną ciekawostkę – wiele serwisów z ogromną reputacją przed aktualizacją i w trakcie jej trwania straciło Discover. Na Discover niebagatelny wpływ na … rozmiar banera Ads w ATF – wystarczy go zmniejszyć 😉

Ciekawie jest gdy zastanowić się nad biznesowym aspektem takich kar ze strony Google. Jeśli w danym mięsiącu 1000 serwisów dostało bana lub odsuniętych zostało na dalsze pozycje i jeśli przyjąć, że taki jeden właściciel straci miesięcznie 1000 USD na reklamach to mamy okrągły milion USD oszczędności dla firmy (pośrednika) sprzedającego swoim klientom możliwość reklamy na takich (pseudo) portalach. To z kolei pośrednikowi nie służy dobrze, bo ten zaoszczędzony milion „na dole” powoduje, że reklamy nie są wyklikane a tym samym sporo dolarów zostaje na kontach jego klientów. No i wyniki w sumie się poprawiają (CTR) i jakość ruchu (kaloryczność) z reklam. To by wskazywało, że zamiast banować konta Adsense za naruszenia łatwiej było wdrożyć algorytm do Search’a 😀 A ile tak naprawdę portali dostało takie kary? Pewnie skala jest ogromna. A na koniec info, że na forach zaczęły się skargi o niskim CPC za kliki co by oznaczało, że pośrednik je przyciął z jakiegoś powodu?

Rynek polski 😉

Przykład portalu, który od dawna „leci” w wynikach za niektóre wyżej wymienione techniki – na Senuto nie bardzo widać gwałtownego spadku w dniu aktualizacji ale potem już zaczyna się zjazd.

spadek widoczności po aktualizacji algorytmu Google w marcu 2023

Ten sam portal ale już w Ahrefs – widać, spadek tak naprawdę od października 2023 ale „dorżnięcie” następuje właśnie w marcu 2024 – po zakończeniu wdrożenia SPAM update (19 marzec 2024) a pozostało w procesie wdrażania CORE update:

spadek widoczności po aktualizacjach algorytmu Google w październiku 2023 oraz marcu 2024

I jeszcze jeden z serwisów polskich, który spada od jakiegoś czasu a w marcu 2024 został „dorżnięty”:

spadek od sierpnia 2023 ale aktualizacja w marcu 2024 dorżnęła serwis

Nie ma jeszcze case studies z „odbanowania” jakiegokolwiek serwisu ani w Polsce ani za granicą (albo nie słyszałem lub nie czytałem – w razie co chętnie poproszę o dane to uzupełnię wpis). Ale, żeby ni było tak źle – serwisy, które dużo poprawiały po spadkach Helpful Content w 2023 roku „cudownie” ozdrowiały i nawet Discover wrócił na swoje miejsce w lepszym wydaniu niż było – czekanie na taka aktualizację opłacało się – tylko czy nie będzie rollbacku?

Warto też zauważyć, że zakończenie jednej aktualizacii spowodowało iż pojawiły się zawirowania a tym samym CORE rozpoczął swoje żniwa.

Czego nie było na tych serwisach – subiektywnie – a co można by poprawić?

Przede wszystkim problematyczna była skala treści, jej ogrom, ogromna długość tekstu i wiele jednostek reklamowych, które powodowały, że tego nie było sposób czytać. Właściciel serwisu z reguły nie rozumie, gdy mówi mu się, że treści są wygenerowane tylko po to aby sciągnąć ruch organiczny – no dobra: ale portale newsowe jakoś to robią czy to oznacza, że mali wydawcy nie mają szans? Z małymi notkami prasowymi? To oznacza, że trzeba znaleźć Grall’a, który spowoduje, że treści będą rankowały.

Co mówi nam helpful content:

  • Czy Twoja firma lub witryna ma dotychczasowych lub potencjalnych odbiorców, którzy uznaliby treść za przydatną, gdyby sami trafili do Ciebie?
  • Czy Twoje treści jasno pokazują fachową i dogłębną wiedzę (np. wynikającą z używania produktu lub usługi albo zwiedzania miejsca)?
  • Czy Twoja witryna ma główny przedmiot zainteresowania lub zakres tematyczny?
  • Czy po przeczytaniu Twoich treści ktoś stwierdzi, że zdobył wystarczającą wiedzę na dany temat, aby mógł osiągnąć swój cel?
  • Czy ktoś, kto przeczyta Twoje treści, będzie miał poczucie, że warto było poświęcić na to czas?

Każdy właściciel portalu/strony odpowie na powyższe pytania twierdząco. No to sprawdźmy: https://xgp.pl/promocje/sluchawki-bezprzewodowe-philips-tah5205bk-dostepne-za-149-zl/ – tak wybrałem specjalnie tak wielką „rozprawkę” na temat słuchawek aby pokazać ułomność wpisu (na zielono cały tekst):

I teraz ważna rzecz: ocena tej notki prasowej jest czysto subiektywna – dla wielu osób jest to informacja podana w sposób szybki i prawidłowy. I tyle. Ale jeśli poddać to pod te 6 pytań ze strony Google to raczej można odpowiedzieć negatywnie (no może poza ceną – bo wiem ile to kosztuje). Do tego dochodzi fakt, że w skali całego serwisu takich notatek jest ogromna liczba.

Co nie sprzyja takiej notce? Nagromadzenie reklam, ich rozkład i linki afiliacyjne – to nie chodzi o to, że to jest złe, chodzi o sygnały płynące do Google na temat treści, E-EAT oraz HCU(X) – one mogą odbierać nagromadzenie tak wielu czynników jako nieprawidłowość dla potencjalnego klienta/czytelnika.

Gdyby przyjąć, że chcemy przebudować serwisy ze względu na treści to:

  • potrzebujemy wstawić własne grafiki, filmy, nawiązania do wywiadów ekspertów, statystyki ze źródłami
  • zastanowić się nad rozmieszczeniem reklam i np. testami w ATF
  • brak merytoryki, eksperckości i tu trzeba opracować dokładnie content plan i całą semantykę
  • niejednokrotnie brak autorów a tym samym schema typu Organization, Person, Author
  • skracanie tekstów na serwisach oraz ich grupowanie połączony z recyclingiem – ja wiem, że na frazę „pozycjonowanie” są teksty na 100-150 tys. zzs i to działa ale w wielu przypadkach przestaje i skrócenie treści na wpisach blogowych i zbudowanie EEAT sprzyja ich powrotowi

Jedna istotna kwestia: nie poprawicie tego „od ręki” w tej chwili – nawet Google opublikowało informację, że ze wszelkimi poprawkami należy poczekać do zakończenia wdrożenia obu aktualizacji algorytmów.

Czy u nas na zielono?

Mamy kilka projektów, które „bujają się”. Niestety prawnicy (YMYL) znowu na cenzurowanym (acz nie wszyscy) 🙁 Jedna z branż o dziwo – rośnie widoczność ale nie ma to aż tak taktycznego wpływu na ruch organiczny (średnia pozycja gorsza, średni CTR gorszy, jednak ruch wzrósł o 30% – na wiele fraz przeskoczone marketplace’y).

projekt którego widoczność rośnie po aktualizacji Google z marca 2024

Sporadycznie widzimy, że treści z tym samym wzorcem, wygenerowane AI, spowodowały spadki (znaczne) – ale blogi na tych serwisach wzrosły. Na ten moment wszystkie treści z tym samym wzorcem zostały wymienione i czekamy na aktualizację, która to zauważy.

Podsumowując:

Niniejszy wpis jest subiektywną oceną i nie musisz się zgadzać z jego zawartością. Postaram się kontynuować ten wpis lub jego następną część jak pojawi sie coś nowego w kwestii tych dwóch aktualizacji Google.

Podobne wpisy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *