Wyszukiwarka Google od lat walczy ze spamem w wynikach wyszukiwania. Mamy za sobą aktualizacje dotyczące skopiowanych treści, bezwartościowego contentu, niskiej jakości linków i inne. W 2022 roku została zmodyfikowany algorytm SpamBrain (uruchomiony w 2018 roku), który ma walczyć ze spamem w SERP-ach, i został oparty o sztuczną inteligencję. Sprawdź, czym jest SpamBrain i jak działa.
Grudniowa aktualizacja algorytmu SpamBrain: https://developers.google.com/search/blog/2022/12/december-22-link-spam-update
SpamBrain – co to jest i jak działa?
Algorytm SpamBrain to system zapobiegania spamowi od Google, oparty na sztucznej inteligencji. Uruchomiono go w 2018 roku, ale publicznie jego nazwa pojawiła się dopiero w kwietniu 2022 roku. Celem działania tego algorytmu jest minimalizowanie liczby spamowych stron w wynikach wyszukiwania. Za nami wiele aktualizacji tego algorytmu, dzięki czemu prawdopodobnie jest on obecnie skuteczniejszy niż kiedykolwiek. Jak twierdzi Google, platforma została zaprojektowana tak, aby stale się rozwijała pod kątem wykrywania wszelkiego rodzaju nadużyć. Wyniki publikowane przez Google, dotyczące 2021 roku, wyglądają imponująco. Według nich:
- udało się zapobiec wyświetlaniu spamerskich stron w 99%;
- zostało wykryte 6 razy więcej spamu niż rok wcześniej;
- zmniejszyła się ilość treści zamieszczanych przez hackerów o 70%;
- zmniejszyła się ilość spamu w postaci bezużytecznego tekstu o 75%.
Google zwraca uwagę, że w 2021 roku zrobiło duże postępy w walce ze spamem – szczególnie w formie linków, oszustw i nękania online. Jednocześnie zaznacza, że odnośniki prowadzące do witryny są jednym z podstawowych sygnałów rankingowych. Jedna z aktualizacji dotyczyła spamu w postaci linków. Google zwraca uwagę na kwestię handlowania odnośnikami, przeważnie w postaci artykułów sponsorowanych – jeśli jest ich dużo i nie mają odpowiedniej adnotacji, to mogą łamać wskazówki jakościowe. Nie jest zabronione linkowanie do innych stron w ramach programów partnerskich, ale wtedy pamiętaj o odpowiednim oznaczaniu odnośników – za pomocą rel=sponsored. Taki przykładowy kod linka wygląda następująco:
<a href=”http://www.jakas-strona.pl/produkt-do-promowania/?ref748483” rel=”sponsored”>Tytuł linka</a>
Skorzystanie z rel=sponsored wiąże się z tym, że odnośnik nie przekazuje mocy, tzn. nie wpłynie na widoczność strony, do której prowadzi. Google zwraca również uwagę na odpowiednie oznaczanie postów sponsorowanych. Strony, które pozyskują ich zbyt wiele, nie korzystają z odpowiednich tagów, mogą spotkać się z karą ręczną lub algorytmiczną.
Google wzmocniło również system ochrony użytkowników przed oszustwami. Jak twierdzi, wprowadzenie tych modyfikacji spowodowało zmniejszenie o 40% przypadków podszywania się stron pod znane marki. Te witryny sugerowały, że należy dzwonić po pomoc na podany numer. Tymczasem po takim telefonie często dochodziło do przestępstw – nakłonienia dzwoniących do wpłaty środków z różnego tytułu na wskazane konto bankowe.
Źródło: https://developers.google.com/search/blog/2021/04/how-we-fought-search-SPAM-2020?hl=pl#protecting-you-beyond-spam
Google wykorzystuje sztuczną inteligencję do analizy zawartości witryny i na tej podstawie wykrywa niebezpieczne strony. Internetowi przestępcy wciąż sięgają po nowe metody, dlatego Google zachęca do wykorzystania raportu na temat spamu, aby pomóc wychwycić problematyczne wyniki.
Algorytm zdecydowanie znalazł zastosowanie w 2021 roku, kiedy kolejny rok zmagaliśmy się z pandemią. Wtedy bardzo dużym zainteresowaniem cieszyły się frazy związane z leczeniem. Dla internetowych przestępców to była okazja do oszustw. Chwilę później poszukiwano odpowiedzi na zapytania związane ze szczepionkami na COVID-19. Dzięki SpamBrain Google ograniczało do minimum wyniki, które próbowały doprowadzić do oszustwa.
System automatycznego wykrywania spamu działa w Google nieustannie. Od czasu do czasu jest ulepszany, żeby lepiej rozpoznawał spam. Jeśli Twoja strona ucierpiała w czasie aktualizacji, która związana była ze spamem, to prawdopodobnie był to efekt działania SpamBrain. Wtedy sprawdź zasady dotyczące spamu w wyszukiwarce Google i oceń, z czego może wynikać problem. Jeśli wprowadzisz zmiany, to nie spodziewaj się, że widoczność wróci natychmiast do poprzedniego stanu – to może zająć miesiące.
Aktualizacje dotyczące spamu w 2022 roku
SEO-wcy w ostatnim czasie mają do czynienia z mnóstwem aktualizacji. Z drugiej strony Google komunikuje na ich temat dużo więcej niż kilka lat temu. W 2018 roku na blogu Google pojawił się komunikat, że rok wcześniej w systemie wyszukiwania wprowadzono… ponad 3200 modyfikacji. Być może zawsze było ich dużo, ale tylko niewielka część była zauważalna w dużej liczbie wyników wyszukiwania.
Źródło: https://www.blog.google/products/search/how-we-keep-google-search-relevant-and-useful/
19 października 2022 roku Google ogłosiło aktualizację spam update, która zakończyła się 22 października. Celem było wykrycie stron bezwartościowych i niebezpiecznych dla użytkownika. 14 grudnia Google poinformowało, że wypuściło aktualizację link spam update. Jej celem była neutralizacja wpływu nienaturalnych linków na wyniki wyszukiwania.
Oczywiście aktualizacje związane ze spamem były przeprowadzane również w poprzednich latach. Jak do tych zmian podeszli SEO-owcy?
Victor Karpenko uważa, że w przypadku tych, którzy mądrze budują profil linkowy, niewiele się zmieniło.
Źródło: https://twitter.com/karpenkotop/status/1517309572070977537?ref_src=twsrc%5Etfw
Paula Madden twierdzi, że SpamBrain jest skupiony na zapobieganiu pojawienia się spamerskich stron w SERP‑ach, ale nie przeciwdziała wpływowi takich witryn na widoczność innych serwisów.
Źródło: https://twitter.com/PaulDavidMadden/status/1517266388209053696?ref_src=twsrc%5Etfw
Jak duże zmiany w wynikach wyszukiwania spowodowała aktualizacja z 14 grudnia? Według Rankranger przez pierwszy tydzień od jej rozpoczęcia działo się sporo, a później sytuacja się uspokoiła.
Źródło: https://www.rankranger.com/rank-risk-index
Jakie linki SpamBrain można uznać za spamerskie? Takie które:
- prowadzą do witryn, które nie są powiązane tematycznie z treścią, z której linkują;
- nie wskazują na źródło informacji do artykułu;
- nie stanowią uzupełnienia treści publikacji;
- pochodzą ze stron niskiej jakości, niczego nie wnoszą dla użytkownika;
- znajdują się na stronach nielegalnych, hazardowych, powstałych w celu dokonania oszustwa.
Czy to oznacza, że zostaniesz ukarany, jeśli masz takie linki? Nie ma takiej pewności. Jeśli Twoje odnośniki zaliczają się do kilku z tych podpunktów, to istnieje duże ryzyko, że tak się wydarzy.
Grudniowe spam update – wpływ na wyniki wyszukiwania
W sieci pojawiło się wiele komentarzy związanych z grudniową aktualizacją Google. Oto przykładowe reakcje użytkowników z WebmasterWorld:
- Jednemu z nich ruch z wyszukiwarki wzrósł o 38%. Twierdzi, że prawdopodobnie jego konkurencja korzysta z farm linków i m.in. temu on zawdzięcza awans.
- Kolejny zgłasza utratę 50% ruchu z Google, mimo tego, że nie kupuje linków ani nie wymienia się nimi.
- Inny użytkownik zauważył wzrost odwiedzin z wyszukiwarki, ale zwraca uwagę na okres świąteczny, w którym zainteresowanie jego ofertą jest większe.
Na forum Black Hat World można przeczytać, że:
- Użytkownik nie ma pewności, czy chodziło o linki, ale stracił bardzo dużo ze swojego ruchu.
- Kolejny zgłasza bardzo duże straty w ciągu ostatnich 3 dni.
- Następny twierdzi, że zanotował ogromne spadki w ciągu ostatnich 24 godzin. Przyznaje, że kupił bardzo dużo linków.
A jak to wyglądało przy październikowej aktualizacji? Relacje niektórych internautów pokazują skalę zmian. Użytkownik wspomnianego forum twierdzi, że nie tylko stracił część ruchu od razu po aktualizacji, ale z dnia na dzień ma coraz niższe pozycje i obawia się, że przestanie w ogóle odnotowywać odwiedziny z Google.
Źródło: https://www.blackhatworld.com/seo/anyone-recovered-after-the-google-spam-update.1455101/
Inni użytkownicy polecają mu odświeżenie treści, zdobywanie wartościowych linków i przeanalizowanie konkurencji.
Twoja strona straciła na widoczności po tej aktualizacji? Oto możliwe przyczyny:
- Keyword stuffing – od czasów, w których ta metoda działała, minęło wiele lat. W sieci dalej są strony, które upychają słowa kluczowe. Nie rób tego.
- Ukryte teksty i identyczne meta title – nadal wiele stron korzysta z tych metod.
- Thin content – masz niskiej jakości treści na stronie? Zoptymalizuj ją, wydłuż, odpowiedz na pytania, które pojawiają się w Podobne pytania w wynikach wyszukiwania. Twórz materiały, które rozwiązują problemy użytkowników.
- Treści AI – automatyzacja oszczędza czas i pieniądze. Warto testować nowe rozwiązania, ale trzeba też podejść do tego rozsądnie. W wyniku aktualizacji treści AI pisane bez ingerencji człowieka zostały zdegradowane[i].
Kto najbardziej stracił na aktualizacji? Sprawdziło to Sistix – dla domen amerykańskich i brytyjskich. Rekordziści w ciągu kilku dni mieli mniejszą widoczność o ponad 60%. W przypadku tych witryn, które straciły najwięcej, nawet 100% domen linkujących do nich nie miało w zasadzie żadnej widoczności w Google.
Źródło: https://www.sistrix.com/blog/december-link-SPAM-update-generally-quiet-clear-candidates/
Co robić? Nie idź na skróty. Stawiaj na jakość, a wtedy kolejne aktualizacje Google nie sprawią Ci aż tyle kłopotów. Będziesz dłużej budować widoczność, ale w ogólnym rozrachunku wyjdziesz na tym korzystnie.
Aktualizacja SpamBrain w grudniu 2022
To jest bardzo ciekawa aktualizacja ponieważ oficjalnie weszła 14 grudnia 2022 natomiast 5 grudnia 2022 rozpoczęło się wdrożenie algorytmu Helpful Content Update. Chyba nigdy do tej pory nie zdarzyło się aby dwie aktualizacje były wypuszczone jednocześnie. Normalnie jakby ktoś wypuścił Krakena. Na dodatek na czas świąt aktualizacje zostały wstrzymane i zakończone dopiero w pierwszym tygodniu stycznia 2023.
Ciekawostka, którą zauważyłem przy wdrożeniu Spam Update oraz Spam Brain w przypadku linków – w Search Console zaczynaja przyrastać adresy URL w sekcji „Crawled – Not Indexed” – „Strona wykryta obecnie niezaindeksowana”:
Strona została już znaleziona, ale nie została jeszcze zindeksowana przez Google. Najczęstszą przyczyną tego stanu jest to, że próba zindeksowania danego adresu URL przez Google mogła przeciążyć stronę i indeksowanie zostało zaplanowane na później. Właśnie dlatego data ostatniego indeksowania w raporcie jest pusta.
Uwaga: powyższe to jest pewna obserwacja dlatego o tym piszę.
Przykład 1:
Główny problem tej witryny to brak jakichkolwiek linków brandowych. Pomijając spam typu website-lists oraz k-html, których w Ahrefs jest raportowanych całe stado, to witryna praktycznie nie miała niczego wartościowego w linkach plus żadnych linków na adresy URL, brand.
Przykład 2:
Zakładając, że SpamBrain to lepsza wersja Spam Core Update (dalej będę się posługiwać skrótem SCU) to problemem są tylko i wyłączeni linki do serwisu. Ten serwis to expirka z treściami natomiast podkusiło mnie podlinkować to słowami kluczowymi z różnorodnych publikacji. Niestety ale liczba URLi oraz nazwy serwisu było znikoma w stosunku do całości i prawdopodobnie spaliłem sobie dobrą expirkę.
Sumarycznie jest tego ok 30-35 publikacji co jest niewielką ilością jednak nagromadzenie linków do podstron z wykorzystaniem różnorodnych słów kluczowych (ema, części zdania, pytania ze słowami kluczowymi) było jednak niewłaściwe.
Przykład 3:
Ten serwis dostał dwa razy – co prawda nie bezpośrednio w aktualizacjach SCU/Spambrain ale jednak problemem były odnośniki. Sami widzicie, że wykres „nie klei się” z żdaną datą aktualizacji ale po prostu uzbierało mu się.
- wykorzystanie jednego schematu (PBN zbudowany o skrypt katalogowy natomiast cała struktura miała te same adresy URL)
- w każdym z wpisów były dwa linki – oba na money keywords. Jeśli się trafiał jeden to z treści.
Przy drugim dołku zweryfikowaliśmy część techniczną:
- poprawiono linkowanie wewnętrzne
- wdrożony nowe poprawki do modułu blogowego
Przykład 4:
Serwis anglojęzyczny. Pokrycie spadków według Ahrefs:
Problemem na pewno były odnośniki oparte o money keywords. Co ciekawe jest sporo linków brandowych (na nazwę serwisu) ale i tak analiza pokazuje, że money keywords zostały użyte na „mocniejszych serwisach” celem ich wzmocnienia.
Rekomendacje związane z Spam Core Update i SpamBrain
Każdy SEO powie prawie to samo, podobne lub rożne zalecenia. Więc podkreślam, że to są nasze obserwacje i nasze podejście do tych aktualizacji, które prezentujemy od listopada 2021. informacje o tym pokazywaliśmy na konferencach Whitepress (w Szczyrku), Seopoland (barcamp’y w Katowicach i Warszawie) oraz finalnie na Festiwalu SEO.
Patrząc przez pryzmat SCU oraz SpamBrain będziemy skupiać się na pozycjonowaniu marek (producentów) oraz marki firmy natomiast w mniejszym stopniu money keywords.
Co do samych miejscówek:
- korzystamy z PBNów dostępnych gościnnie i „drogich” z wykorzystaniem brandu
- z różnych portali dostepnych publicznie (URL, Brand, domena)
- weryfikujemy stare publikacje i jeśli widać, że dany portal takze poległ na której aktualizacji wycofujemy z niego publikację
- sprawdzamy czy nie przegięliśmy z money keywords – jeśli tak to wymieniamy to na URL, brand ale jednocześnie zmieniamy tez miejscówkę
- wzmacniamy tier1 wykonując tier2
W 2023 będziemy jeszcze sporo testować rozwiązań innych niż obecne na rynku.
[i] https://searchengineland.com/google-spam-update-what-you-might-be-doing-wrong-390064
Cześć, czy rozwinąłbyś te zdania z Przykład 2. ?
„Niestety ale liczba URLi oraz nazwy serwisu było znikoma w stosunku do całości i prawdopodobnie spaliłem sobie dobrą expirkę.
Sumarycznie jest tego ok 30-35 publikacji co jest niewielką ilością jednak nagromadzenie linków do podstron z wykorzystaniem różnorodnych słów kluczowych (ema, części zdania, pytania ze słowami kluczowymi) było jednak niewłaściwe.”
Tzn, że przyłożyłem praktycznie same frazy typu EMA oraz zawierajace słowa kluczowe (pytania) do podstron a zapomniałem, że trzeba linkowąć tez nazwę firmy, brand czy adres URL (nawet w postaci naked) i nie zapominać o linkowaniu strony głównej. I spaliłem expirkę. Od kilku dni mozolnie wraca po usunięciu publikacji z linkami do podstron.