Od jakiegoś już czasu na forum PiO trwa dyskusja na temat tego co może być przyczyną masowych filtrów z 28/29 lipca tego roku. Przypomnę że w filtr ten wpadło wiele naprawdę wartościowych witryn, z których wiele było obecnych w sieci już od kilku lat, a więc teoretycznie powinny mieć już na tyle mocne domeny, że powinny się czuć w miarę bezpiecznie. Z dyskusji która się wywiązała nie dało się jednak wywnioskować jakie mogą być przyczyny tego filtra, dlatego zdecydowałem się umieścić na PiO wątek z ankietą gdzie pytałem o to w jaki sposób były linkowane zafiltrowane strony, oraz czy na tych stronach był zainstalowany system wymiany linków.

Z udzielonych odpowiedzi wyłonił się pewnien obraz, ale na pierwszy rzut oka nadal nie było wiadomo dlaczego strony wpadły w filtr. Jednym z czynników o których pisano wcześniej była instalacja SWL na stronie. Jak się jednak okazało, na połowie stron nie było żadnego, więc ten czynnik odpada jako główny winowajca.

Z pytania o sposoby pozycjonowania też nie da się wysnuć bezpośrednio wniosku co zawiniło. Jedyne co można powiedzieć że na pierwszym miejscu pod względem popularności są systemy wymiany linków (zarówno stałych jak i rotacyjnych), następnie są precle, kolejne pozycje zajęło katalogowanie (ręczne i automatyczne) na równi z własnym zapleczem (tematycznym i nietematycznym). Dalej są wpisy na forach i blogach oraz wymiana linkami. Ostatnie miejsce zajmują kupowane linki. Jak zatem widać, stosowanych było wiele metod.

Po głębszym zastanowieniu się doszedłem do wniosku że prawdziwą przyczyną tych filtrów może być SWL Rank. Nazwę dla niego wybrałem nieprzypadkowo – ten nowy parametr działa bowiem podobnie jak znany już TrustRank. Dla tych co nie wiedzą co to jest TrustRank, polecam lekturę artykułów TrustRank algorithm oraz Combating Web Spam with TrustRank (obydwa po angielsku, więc przy okazji można podszkolić język).

Idea TrustRank’u jest prosta – na początku ręcznie przejrzano wiele stron wyznaczając te które były wartościowe dla odwiedzających. Gdy to już zostało zrobione, za pomocą odpowiedniego algorytmu wyznaczono wartość tego współczynnika dla wytryn które były linkowane z tych wartościowych.

Wg mnie podobne podejście zastosowano do stworzenia współczynnika SWL Rank – najpierw znaleziono wiele witryn które były linkowane z SWL (co nie jest zbyt trudne), a następnie wyliczono wartość tego współczynnika dla innych witryn. Każdy link z witryny A do B przekazuje pewną część tego współczynnika, stosunkowo małą tak że kilka witryn dalej współczynnik ten maleje prawie do zera. Ponieważ jednak witryny w SWL tworzą powiązaną sieć, więc w jej obrębie wartość SWL Rank’u będzie zdecydowanie wyższa niż poza. Po wyliczeniu SWL Rank’u dla witryn Google porównało wartość tego współczynnika np. z TrustRank’iem, i jeżeli SWL Rank był odpowiednio duży (proporcjonalnie), to dana strona dostawała filtr.

Koncepcja SWL Rank pozwala także wyjaśnić dlaczego poleciało wiele stron które mogły nie być w ogóle linkowane z SWL, a posiadały wiele linków z precli i katalogów. Jak pewnie wiecie, precle i katalogi mogą być linkowane przez właściciela z SWL, aby zwiększyła się ich moc. Także wiele osób podlinkowuje swoje wpisy, aby zwiększyć ich moc. W ten sposób nie tylko katalog czy precel dostaje większy SWL Rank, ale także strona która jest z niego linkowana. Jeżeli zatem strona nie posiadała na tyle mocnych „naturalnych” linków aby zrównoważyć SWL Rank, dostawała filtr. Na forum PiO czytałem też o przypadku pustej domeny która miała tylko jeden link ze strony w filtrze i ona też dostała filtr – ten przypadek też daje się wytłumaczyć za pomocą SWL Rank.