Koniec z “kretynem” i “żałosną porażką”
Na Google webmaster blog pojawiła się dziś informacja o wprowadzeniu nowych algorytmów, mających zminimalizować efekt Googlebomb, czyli spamowania indeksów wyszukiwarek tak, by dla niektórych zapytań zupełnie nie związane z nimi witryny znajdywały się na pierwszych pozycjach w wynikach.
W angielskojęzycznym internecie najbardziej spektakularnym przykładem zastosowania tej techniki była fraza miserable failure (żałosna porażka), która do wczoraj w wynikach wyszukiwania Google na pierwszej pozycji zwracała oficjalną stronę prezydenta George W. Busha. Na naszym podwórku ofiarą internetowych dowcipnisiów padł Andrzej Lepper – po wpisaniu w wyszukiwarce Google słowa kretyn, od kwietnia 2004 roku na pierwszych miejscach pojawiała się strona sejmowa obecnego wicepremiera.
Algorytm, który w ulepszony sposób analizuje strukturę linków sieci web, pozwala znacznie ograniczyć podatność Google na takie techniki manipulacji rezultatami wyszukiwania. Oba zapytania zwracają obecnie przeważnie dyskusje, komentarze czy artykuły o samych googlebombach.
No cóż, wydaje się, że nadszedł kres ery kretynów, kaczych gryp i żałosnych porażek – przynajmniej na razie. Zmiany algorytmów nie mogły być zbyt duże, bowiem analiza struktury linków jest jednym z najważniejszych elementów PageRank, który leży u podstaw działania Google. Zatem w przyszłości być może uda się opracować sposoby przechytrzenia nowych filtrów.
Taa, ale “gorion” i “oszustka” cały czas działa.
i pedofil też działa
nowe algorytmy ? tia… raczej czarna lista haseł, albo cenzura…
A “pedał” nadal działa.
W sumie jeśli jedne frazy zniknęły a drugie nie to na pewno jest to coś w rodzaju czarnej listy.. przecież zmiana algorytmu zrobiła by spore przetasowanie w wynikach.
Tak na marginesie.. wg. wystarczył by prosty “filtr”,
jeżeli fraza jest w linkach ale NIE MA jej na stronie to nie powinna
się pokazywać w wynikach… zresztą to logiczne raczej jest…
np. jak strona zmienia całkowicie treść a linki zostają (wiem ze mało prawdopodobne) ??
ah te google :D
wbrew temu, co ludzie z googla pisza, wyniki zostaly przefiltrowane recznie – przyklady: gorion, oszustka, oszuści…
“wystarczył by prosty “filtr”, jeżeli fraza jest w linkach ale NIE MA jej na stronie to nie powinna się pokazywać w wynikach…”
tiaaa, i wszystkie strony wykonane we flash-u znikaja nagle zupelnie z zasobow wyszukiwarki.
Obawiam się, że w rzeczywistości bez zajrzenia do kodu, ciężko będzie stwierdzić czy faktycznie jest to algorytm, czy filtr zbudowany na podstawie ręcznie wprowadzonej listy keywords. Osobiście uważam, że jest to modyfikacja algorytmów PageRank.
Po pierwsze, nie wydaje się być to w stylu Google, które stara się z uwagi na gigantyczną ilość przetwarzanych danych zautomatyzować wszystkie procesy, bawić się w ręczne filtrowanie takich wyników. Była by to praca w skali całego Internetu wręcz syzyfowa. Pracuję od pewnego czasu nad wyszukiwarką, działającą w znacznie mniejszej skali (kilka gigabajtów danych dziennie) i staram się jak mogę unikać ręcznego filtrowania rezultatów. Biorąc pod uwagę ogólną skuteczność, lepiej poświęcić jest nawet parę dni na opracowanie ogólnego algorytmu rozwiązującego daną klasę problemów, niż bawić się w ręczne ustawianie wyników. Wydawać by się mogło z początku, że znacznie korzystniejsze będzie poświęcenie 10 minut na dodanie paru fraz do filtra, aniżeli “strata” kilku dni na opracowanie ogólnego rozwiązania. Jednak po pewnym czasie pracy nad takim projektem, człowiek zaczyna dostawać gęsiej skórki na samą myśl, że miałby coś ręcznie modyfikować – jest to po prostu w dłuższej perspektywie pozbawione sensu.
Co więcej, dodanie paru fraz do filtra mogło by zająć parę dni – a zatem problem z miserable failure powinien być rozwiązany jeszcze w 2003 roku. Google nie uważało tej kwestii jako szczególnie palącej, gdyż nie zaniżała ona ogólnej jakości wyników wyszukiwania, którego obiektywizm miał być głównym celem. Z wypowiedzi Matta Cuttsa wynika, że nad rozwiązaniem tego problemu pracowało dwóch programistów, przeznaczając na niego część ze swojego “czasu wolnego” (czyli 20% czasu pracy, który każdy pracownik Google może poświęcić na dowolne projekty). W takim przypadku nie dziwi specjalnie, że rozwiązanie takiego problemu pojawia się po 4 latach :)
Co do skuteczności, jak napisałem w pierwszym zdaniu notki, zmiany algorytmu jedynie minimalizują efekty Googlebomb – co oczywiście nie oznacza, że problem ostatecznie rozwiązują. Jak autorzy algorytmu zresztą napisali na “Google webmaster blog”, wpływ nowego algorytmu jest na razie bardzo ograniczony w zasięgu oraz sile działania.
Pingback: SEO Blog - Marketing w Wyszukiwarkach » 5 powodów aby unikać systemów wymiany linków