background image

Kilkanaście dni temu jeden z czytelników zwrócił się do mnie z pytaniem, w jaki sposób szybko i 
bezboleśnie nabić duży site na jego stronie firmowej, jako argument przemawiający ZA podał, że 
dzięki temu jego witryna tanim kosztem w krótkim okresie czasu zyska tysiące odwiedzin, ale nie 
to pytanie jest istotne - ciekawszą kwestią jest jakiej metody użyć do generowania treści. Czy na 
pewno przywołana metoda wciąż działa - mowa o nabijaniu site i czy są skuteczne metody w 
generowaniu contentu?
Dawno dawno temu kiedy jeszcze można było wypozycjonować stronę na konkurencyjne frazy 
samymi katalogami i preclami, faktycznie nabicie dużego site w Google przynosiło wymierne 
korzyści. Seowcy masowo prześcigali się w coraz to nowszych metodach generowania treści na 
strony, od scrapowania artykułów z Wikipedii, poprzez tłumaczenia tekstów z języka angielskiego 
na polski, a kończąc na wyszukanych algorytmach analizy, przetwarzania i generowania. Wszystko 
odbywało się w sposób w pełni zautomatyzowany lub w ostateczności półautomatyczny, tanim 
kosztem można było osiągnąć to, na co wiele osób pracowało przez lata. Czy metody sprzed paru 
lat wciąż działają? Zanim odpowiem na to pytanie przejdę do innego punktu.
By utrudnić działania, Google na przestrzeni kilku ostatnich lat wprowadziło liczne zabezpieczenia,
dzięki którym metoda nabijania site straciła na efektywności. Na podstawie 

analiz filtrów 

algorytmicznych

, które przeprowadziłem na przestrzeni ostatnich 2 lat można wyłowić 

prawidłowości, które prowadziły do kar. Jedną z tych prawidłowości jest szybki przyrost site, czy to
poprzez umyślne generowanie nowych podstron w serwisie, czy też nieświadome powielanie 
podstron w obrębie domeny i/lub subdomen.
Czy wygenerowanie dużej liczby podstron, których zawartość jest bardzo zbliżona do siebie 
negatywnie wpływa na postrzeganie domeny i zwiększa ryzyko otrzymania kary od Google? Jasne 
że TAK. Niestety wciąż wiele osób wychodzi z założenia - "czym więcej tym lepiej" lub "lepiej 
byle jak niż wcale", jednak w dzisiejszych czasach takie podejście ma krótkie nogi i część osób, 
których strony ugryzła Panda, przekonało się o tym na własnej skórze.
Jakiś czas temu pisałem o rel="canonical" zlecieli się wielcy "znawcy" tematu wypowiadając 
słowa, jakoby canonical nie był żadnym zabezpieczeniem, owszem nie jest to panaceum na 
wszystkie "choroby", ale jak pokazuje praktyka (

przykład tutaj

), poprawna implementacja canonical

mogła zmniejszyć duplikowanie i zapobiec późniejszym wydarzeniom. Na szczęście w tym 
przypadku obyło się bez płaczu, szybka reakcja pozwoliła naprawić problem, jednak wielu 
właścicieli sklepów wciąż bagatelizuje zagrożenie. Mam nadzieję, że w świadomości tych osób coś 
drgnie, również za sprawą podobnych artykułów.
Nieco odbiegliśmy od tematu przewodniego, wracamy do pytania czytelnika. Czy sztucznie 
generowany content może sprawić, że domena zyska tysiące odwiedzin? I tak i nie, wszystko zależy
od jakości generowanej treści tj. metody generowania. Najpopularniejsze to generowanie nowej 
treści poprzez użycie synonimów. Niestety metoda aktualnie słabo sprawdza się chyba że...
W zeszłym roku testowałem możliwości wykorzystania auto wygenerowanych tekstów w ściąganiu
ruchu na strony docelowe. Do tego celu między innymi stworzyłem prosty programik, który miał za
zadanie stworzyć nowe treści, które następnie mogły zostać umieszczone (zaimportowane) na 
stronie.

background image

Metoda okazała się połowicznie skuteczna albowiem nie miałem kiedy skończyć metody 
słownikowej oraz wprowadzić udoskonalony algorytm krzyżowy (pochodzący z algorytmu 
genetycznego). Udało się ściągnąć trochę ruchu na satelitę, ale to było poniżej moich oczekiwań - 
inaczej mówiąc test powiedział, że gra nie jest warta świeczki. Google dobrze sobie radzi ze 
sztucznie generowanymi tekstami ale uważam, że do ideału jeszcze daleka droga, z pewnością przy 
użyciu odpowiednich aplikacji (algorytmów) da się stworzyć treści, które będą w pełni odporne na 
algorytmy wykrywania sztucznej treści lub inaczej... będą zrozumiałe dla czytelnika na tyle, że 
algorytm nie będzie potrafił nic wykryć. Jednak pamiętajmy, że analizując pełne spektrum tekstów 
na stronie zawsze można wyłowić regularności, dotyczy to nawet treści pisanych przez ludzi, którzy
mają swoje nawyki w pisaniu.
W programie zastosowałem bardzo proste metody łączenia i podstawową podmianę wyrazów, co by
było gdyby oprzeć się na inteligentnych algorytmach zawartych choćby w zaawansowanych 
synonimizatorach tekstów? Jeżeli tylko czas pozwoli na dokończenie programu, będę w tym roku 
ponownie testował tę metodę.
Dla jasności, nikogo nie namawiam do wykonywania tego typu testów, a tym bardziej generowania 
sztucznej treści na domenach firmowych - powiem wręcz, że sam nawet bałbym się zastosować 
metody na lepszej jakości zapleczu nie mówiąc już o domenie firmowej. Test przeprowadzałem w 
ramach corocznych eksperymentów, w celu sprawdzenia potencjału metody - wiemy doskonale ile 
kasy przeznaczamy na napisanie przyzwoitej jakości treści na zaplecza, jeśli udałoby się 
zaoszczędzić choćby 50% na tekstach zastępując je sztucznie generowanymi, sensownymi, 
zrozumiałymi dla człowieka treściami i "uodpornionymi" na Google, byłaby to wielka oszczędność 
czasu i przede wszystkim pieniędzy, co doprowadziłoby do wzrostu opłacalności projektów SEO 
lub jak kto woli zwiększenia zysków.

Manunu