Filtry, bany – czyli o karach od Google

Każdy, kto kiedykolwiek pozycjonował strony internetowe musiał zetknąć się z filtrami nakładanymi przez wyszukiwarkę. Jest to rodzaj kar, których Google nakłada dosyć dużo. Oto kilka rad, co możemy zrobić, by taki filtr został zdjęty.

Jak zdjąć filtr od google - ręczny i algorytmiczny

Jak zdjąć filtr od google – ręczny i algorytmiczny

Jak zdjąć filtr ręczny i algorytmiczny?

Kary nakładane przez Google dzielą się na filtry ręczne i algorytmiczne. Jeżeli chcemy zweryfikować czy nasza strona otrzymała filtr ręczny czy algorytmiczny, musimy sprawdzić na stronie Google Search Console zakładkę „Ręczne działania”. Tam znajduje się informacja, jakie działania zostały podjęte wobec naszej strony, jeśli  został na nią nałożony filtr ręczny. Warto pamiętać, że może ona pojawić się z pewnym opóźnieniem.

Kara ręczna może mieć tzw. dopasowania częściowe i wtedy wskazane są poszczególne adresy url, których może ona dotyczyć. Jeśli widzimy informację „Dopasowania w całej witrynie” oznacza to, że filtr dotyczy całej strony.

Przykłady filtrów ręcznych:

1. Nienaturalne linki do Twojej witryny

Dawniej była to dosyć popularna kara nakładana przez Google, jednak obecnie jest prawie niespotykana. Filtr ten otrzymywała strona, gdy wyszukiwarka wykryła nienaturalny profil linków manipulujący PR. Często karę tę otrzymywały strony mające dużo linków z tymi samymi anchorami – „exact match”. W związku z tym wciąż dobrą taktyką jest linkowanie anchorami „exact match” głównie z zaplecz SEO, nad którymi mamy kontrolę. Wtedy w przypadku otrzymania kary możemy zmienić anchory na czysty adres url i dodatkowo dodać atrybut „nofollow”, aby nasze zgłoszenie o ponowne rozpatrzenie przebiegło pomyślnie 🙂

Wszystkie filtry ręczne powodują obniżenie widoczności całej strony lub jej części w wyszukiwarce. W szczególnych przypadkach, gdy pojawi się informacja o „Dopasowaniu w całej witrynie”, mamy do czynienia z karą ręczną o nazwie ban – czyli usunięciu strony z wyszukiwarki. Bana nie można dostać jedynie za  „Nienaturalne linki do Twojej witryny”.

Wszystkie opisane poniżej kary ręczne dotyczą bana, czyli wykluczenia naszej strony z wyników wyszukiwania Google:

Ban - wykluczenie z wyników wyszukiwania

Ban – wykluczenie z wyników wyszukiwania

2. Nienaturalne linki z Twojej witryny

Karę tę otrzymują strony posiadające linki w celu manipulowania PR. Filtr ten wciąż jest dosćć często stosowany przez Google. Najczęściej otrzymują go strony z dużą ilością linków wychodzących, stworzonych wyłącznie pod SEO, np. strony uczestniczące w tzw. SWL – Systemach Wymiany Linków. Jeśli Twoja strona otrzymała takie powiadomienie, to prawdopodobnie musisz usunąć lub dodać parametr „nofollow” do linków umieszczonych na Twojej stronie, które mogą wydawać się podejrzane o manipulowanie PR. Natomiast jeśli Twoja strona jest podpięta pod jakiś SWL lub jest spamową zapleczówką typu precel, wtedy najlepiej będzie wymienić domenę 😉

3. Witryna zaatakowana przez hakerów

Google bardzo często wykrywa strony zaatakowane przez hakerów i od razu oznacza je w ten sposób w wynikach wyszukiwania przy adresie url. Najczęściej problem ten dotyka stron opartych o popularne CMS takie, jak WordPress i Joomla, do których hakerzy dostają się przez niezaktualizowane wtyczki bądź motywy.
W celu pozbycia się tej kary należy jak najszybciej usunąć zainfekowane pliki z serwera i bazy danych oraz zgłosić w GSC ponowne rozpatrzenie witryny.

4. Mało treści o niewielkiej lub żadnej wartości

Kara ta nakładana jest głównie za:

  • dużą ilość automatycznie generowanych podstron bez treści
  • duża ilość podstron z powieloną treścią
  • MFA (Made for AdSense) – strony o niskiej jakości stworzone tylko w celu zarabiania na AdSense
  • strony przejściowe tzw. „Doorway Pages” stosujące meta tag refresh

5. Czysty spam

Kara ta nakładana jest za tzw. agresywne techniki spamerskie, czyli za automatycznie generowane treści oraz cloaking i maskowanie treści.

Kara ta stanowi serię „Dopasowań w całej witrynie” i oznacza wykluczenie z wyników wyszukiwania.

6. Spam tworzony przez użytkowników

Zazwyczaj karę tę otrzymują fora internetowe lub księgi gości – blogi, które posiadają dużo linków wychodzących oraz wątpliwej jakości treści dodane przez tzw. spamerów.

7. Maskowanie lub podstępne przekierowania

Czyli stosowanie tzw. cloakingu polegającego na wyświetlaniu innej treści dla użytkownika i innej dla Google bota. Dzięki cloakingowi można też przekierować użytkownika przez 301 na inną stronę, a Google botowi pokazać specjalnie spreparowaną treść – mamy wtedy do czynienia z tzw. podstępnym przekierowaniem.

Strony stosujące cloaking, po jego wykryciu od razu zostają wykluczone z wyników wyszukiwania. Jeżeli lista IP Google botów będzie często aktualizowana, automatyczne wykrycie cloakingu będzie niemożliwe. Google zazwyczaj robi okresowe ręczne „czystki” w serpach (zwłaszcza w branży afilacyjnej), banując strony stosujące cloaking.

8. Ukryty tekst lub upychanie słów kluczowych

Ukryty tekst powstały przez błąd w CSS, np. biały tekst na białym tle, może doprowadzić do wykluczenia strony z indeksu Google. Warto zwrócić uwagę aby tekst w obrębie całej strony był widoczny, ponieważ praktyki typu kolor czcionki w kolorze tła lub minimalny rozmiar czcionki są automatycznie karane przez Google.

Keyword stuffing, czyli upychanie słów kluczowych także może doprowadzić do bana. Nie warto upychać na siłę słów kluczowych, np. 100 tych samych słów obok siebie. Nie przyniesie to naszej stronie nic dobrego.

Filtry algorytmiczne

Kary algorytmiczne często nakładane są w przypadku złego profilu linków lub nieodpowiedniej optymalizacji strony. Nakładane są automatycznie przez algorytm, który ulega wielu update’om, w szczególności znanym pod nazwami Pingwin i Panda. Filtry algorytmiczne mają to do siebie, że strona może być doskonale wypozycjonowana pod obecny algorytm, jednak w momencie dużego update’u zmienia się on całkowicie i nasza strona może otrzymać karę algorytmiczną. Zupełnie inaczej jest w przypadku kar ręcznych, gdzie Google jasno określa za co można otrzymać karę ręczną.

Trzy główne kategorie kar algorytmicznych

1. Profil linków strony –  linkowanie kilkoma anchorami „exact match”

To popularny typ filtru jaki obecnie otrzymują strony. Zły profil linków strony prowadzi do spadku witryny o wiele pozycji lub nawet wypadnięcia poza Top100 wyników na daną frazę.

Obecnie linkowanie tylko kilkoma anchorami „exact match” praktycznie zawsze prowadzi do filtru algorytmicznego, jeżeli strona nie posiada innych linków różnicujących jej profil. Wielu początkujących pozycjonerów często linkuje stronę np. tylko dwoma anchorami „exact match”, co może spowodować, że wypada ona poza Top100.

Co zrobić aby zdjąć filtr algorytmiczny za linki EM?

Należy zróżnicować profil linków domeny poprzez zdobycie mocnych linków, stosując inne anchory lub tzw. „goły” url.
Zdecydowanie odradzam stosowanie narzędzia Disavow Tools, ponieważ może ono wyrządzić więcej szkody niż pożytku. Zostało ono wypuszczone przez Google w celu flagowania miejscówek pozycjonerów, a nie w celu pomocy przy zdejmowaniu filtrów.

2. Content na stronie – mało treści o niewielkiej wartości lub duplikacja treści

Kary algorytmiczne za content zapoczątkował przede wszystkim tzw. update Panda, który według Google obecnie działa w czasie rzeczywistym.

Strony z niewielką ilością treści lub duplikatami treści w tej chwili nie są w stanie wysoko rankować w wynikach wyszukiwania. Nawet w przypadku stron typu OnePage dodanie dużej ilości tekstu może spowodować wzrost nawet o kilkadziesiąt pozycji.

W przypadku sklepów internetowych ważne jest przygotowanie długich i unikalnych opisów produktów i kategorii, aby sklep mógł dobrze rankować i nie otrzymać filtru za małą ilość treści lub duplikaty.

3. Optymalizacja – brak optymalizacji strony lub przeoptymalizowanie strony

To szczególny przypadek filtru algorytmicznego. Najlepszym przykładem może być pozycjonowanie strony poprzez linkowanie słów, których nie posiada. Może przez to nie wejść nawet do top100 na pozycjonowane frazy kluczowe.

Swego czasu sławę zdobyła akcja pozycjonowania strony znanego wówczas polityka oraz stron pornograficznych poprzez frazę „kretyn”. Obecnie nie byłoby to możliwe, gdyż linkowanie anchorem „kretyn” strony, która nie tylko posiada go w swej treści, ale także nie pojawia się na niej nawet nawiązanie do tego słowa, przyniosłoby odwrotny skutek.

pio-akcja-kretyn

Przed rozpoczęciem linkowania strony ważna jest jej odpowiednia optymalizacja pod frazy, na które chcemy pozycjonować z zamiarem uniknięcia filtru za złą optymalizację. W przypadku gdy nasza strona ma problem z rankowaniem na daną stronę, a profil linków wydaje się być zrobiony dobrze, warto ją przeanalizować pod kątem optymalizacji.

Strona może otrzymać również filtr algorytmiczny za przeoptymalizowanie – wrzucenie obok siebie 100 identycznych fraz. Przy optymalizacji contentu na stronie również warto zachować umiar i stosować kilkuprocentowe stężenie fraz kluczowych w tekście.

 

Twoja strona spadła w wynikach wyszukiwania? Otrzymała powiadomienie w GSC? Potrzebujesz pomocy w zdjęciu filtra?

Napisz do nas, a na pewno pomożemy! ->> Kontakt

Sebastian Matysik

Sebastian Matysik

Właściciel Agencji SEO LevelRank i systemu indeksacji linków RankIndexer.win. Na co dzień zajmuje się realizacją kampanii SEO klientów oraz wdrażaniem autorskich rozwiązań w pozycjonowaniu stron afiliacyjnych na mocno konkurencyjne frazy.

9 thoughts on “Filtry, bany – czyli o karach od Google

  • Zapomnieliście dodać, że nigdzie nie nie znajdziemy informacji o tym, że strona dostała filtr algorytmiczny. Jedynie pełen monitoring widoczności witryny i widoczne wahania mogą pokazywać, że coś dzieje się negatywnego ze stroną np. strona dostała filtr algorytmiczny.

  • Byłem bardzo zadowolony że trafiłem na ten artykuł w sieci. Muszę co najmniej wyrazić uznanie za twoją pracę . Wielkie gratulacje! Ja koniecznie będę rekomendował to miejsce i częściej odwiedzał aby poczytać nowe artykuły Cafe Hostel

  • Dobry arykuł! Ja też spotkałem się z pewnego rodzaju filtrem googla. Z dnia na dzień moja strona padła z miejsc 10-20 na 80, a po miesiącu nie było jej w ogóle w Top 100. Jakoś dało mi się ją odratować, ale łatwo nie było 😉

  • Czy w przypadku filtra ręcznego za nienaturalne linki przychodzące przed wysłaniem prośby o ponowne rozpatrzenie wystarczy profil rozcieńczyć za pomocą nowych mocnych linków tak jak ma to miejsce w przypadku kary algorytmicznej, czy może trzeba ingerencji w linki(usunięcie lub dodanie do DT itp.)?

  • Z banem od Google trzeba uważać – zwłaszcza, gdy od miesięcy inwestujemy w pozycjonowanie, a tutaj nagle nasza pozycja spadnie. Podobnie z reklamami w Google Adwords, które często są usuwane. Trzeba działać rozważnie lub po prostu zgłosić się do specjalistów, którzy zrobią to tak jak być powinno 😉

  • Popieram poprzednika, jeśli nie ma się na ten temat zielonego pojęcia to chyba lepiej faktycznie nie brać się samemu za pozycjonowanie bo można zrobić więcej szkód niż pożytku i zlecić to fachowcom 🙂

  • Super ! Nasza firma miała podobny problem. Dużo czasu zajęło wyjście na prostą, a co dopiero by zacząć osiągać dobre wyniki 😉

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *