lipca 18

Ostatnio zainteresowałem się pozycjonowaniem stron internetowych i naczytałem wielu artykułów o SEO (Search Engine Optimization), później popróbowałem trochę własnych sił, co doprowadziło mnie do kilku ciekawych wniosków, którymi chciałbym się podzielić.

Podstawowym spostrzeżeniem jest fakt, że mechanizmy google rozwijają się właściwie bez przerwy, a artykuły sprzed dwóch czy trzech lat mogą okazać się całkowicie nieaktualne. Kolejna rzecz dotyczy krążących po sieci setek różnych stwierdzeń “ekspertów” na temat działania niektórych mechanizmów i zasad jakich należy się trzymać, które to opinie nie są w żaden sposób potwierdzone i nikt nigdy nie próbował ich weryfikować, a już na pewno nie z powodzeniem. Natomiast próby weryfikacji są często dyskusyjne i na ich efekty mogły mieć wpływ różnorakie czynniki zewnętrzne. Ważne jest też to, że google nie jest jedyną wyszukiwarką, na którą możesz liczyć, jest jeszcze kilka innych. Manipulowanie nimi jest często łatwiejsze, ponadto priorytetyzują one różne aspekty stron w inny sposób. Na przykład, jeżeli robisz projekt anglojęzyczny, warto popróbować się z Yahoo i MSN tym bardziej, że ich mechanizmy są mniej zaawansowane od google. W Polsce do niedawna dużą część ruchu można było ściągnąć z onet, zwłaszcza że był dużo bardziej podatny na manipulacje niż google i zwracał uwagę na inne mechanizmy, jak np nazwa domeny. Od niedawna beta onetu bazuje jednak na silniku google i pomimo widocznej różnicy w wyświetlanych wynikach w stosunku do google.pl, nie ma wątpliwości, że nie jest to już silnik onetu, tylko zmodyfikowany silnik google. Istnieje oczywiście jeszcze netsprint. Niestety nie udało mi się odnieść w nim żadnych spektakularnych sukcesów i nie zauważyłem na moich stronach żadnego ruchu z tej przeszukiwarki. Przy typowo polskich projektach, jeżeli założymy, że ruch uzyskany z google wynosi 100% , to ruch wynikający z onet.pl (na którym zawsze udawało mi się wyżej spozycjonować w czasach starego silnika onetu) stanowił około 20% ruchu z google. Po wymianie silnika onetu moje strony spozycjonowane są troche niżej i osiągają średnio 10% ruchu z google. Obserwując statystyki zapytań na poszczególnych frazach, i biorąc pod uwagę moje doświadczenie wywnioskowałem, że ilość zapytań w onecie na popularne polskie frazy stanowi mniej niż 10% zapytań z google. Czyli, jeżeli daną frazę w google użytkownicy wpisują 100 000 razy w miesiącu, to w onecie wpisują ją prawdopodobnie 5000-10000 razy. Teorię tę można łatwo zweryfikować dla konkretnych fraz, na które będziecie chcieli się pozycjonować poprzez porównanie popularności danej frazy między onet boksem a google keywords. W przypadku innych wyszukiwarek i polskich projektów live/msn osiągnęły 5% ruchu google, a yahoo zdobyło aż 1%. Co ciekawe, bot yahoo chyba najczęściej nawiedza moje strony, lecz wyniki są niestety marne.

W artykułach o seo pojawia się tyle samo faktów, co i mitów, jednak po pewnym czasie udało mi się kilka z nich zweryfikować. Najważniejsze jest chyba to, że google lubi stabilny wzrost. Jeżeli chcemy, aby nasza strona pozycjonowała się wysoko, musi ona cały czas zdobywać nowe porcje linków i nową treść (tutaj może kilka słów wyjaśnienia, żeby znów ktoś się nie czepiał. Nowa treść powoduje że google zaczyna wyświetlać naszą stronę pod wynikami w kolejnych frazach. Google lubi też serwisy zawierające dużo treści. Cały czas mówimy też o efektach długofalowych wpływających na serwis jako całość a nie o szybkim dostaniu się do top 10 w kilku popularnych frazach). W przeciwnym razie zacznie spadać. Nie ma też nic gorszego od nagłego, szybkiego startu z tysiącem linków, a później długo długo nic, albo jeszcze gorzej, gdy te linki zaczną znikać. Wtedy google nie pokocha naszej strony i stracimy wszelkie szanse na wysoką pozycję. Ważna jest też cierpliwość. Należy pamiętać, że proces pozycjonowania jest długotrwały i jeżeli będziesz próbował uzyskać szybki efekt, choćby poprzez pozycjonowanie dziwnymi metodami, to przy kolejnym upgrejdzie silnika google może okazać się, że twoje triki już nie działają i spadniesz ze stroną bardzo nisko, a to wtedy bardzo boli. Nie można również zapomnieć, że jakość linków jest o wiele ważniejsza niż ich ilość. Jeden dobry link ze strony o wysokim PR pozwoli uzyskać większy efekt, niż 10 000 linków ze stron bez PR. W ciągu roku jeden link ze strony o PR 4 umożliwił mojej testowej stronie osiągnięcie PR 2 pomimo braku na niej jakiegokolwiek contentu. Ten przykład pokazuje, że jakość linku ma wykładniczy wpływ na jego wartość. Bezwartościowe są zwłaszcza linki z lewych katalogów(rozumiem, że można się nie zgodzić z tym stwierdzeniem ponieważ odpowiednia ilość takich linków + precle i autoblogi mogą szybko wypromować stronę, ale czy warto męczyć się w przypadku gdy prędzej czy później taki katalog może dostać bana od google? Jeżeli ktoś placi nam za pozycjonowanie i za to że klient jest w top 10 to tak. Jeżeli budujemy serwis któremu te linki mają przynosić wartość przez długi czas to moim skromnym zdaniem można poświęcić swoje wysiłki na bardziej efektywne rzeczy), ponieważ w dobie narzędzi typu seoadder są one totalnie zaspamowane i google bardzo nisko je wartościuje. Istnieje kilka katalogów, do których warto się dodać , ale należy wybrać tylko takie, w których dobrze działa captcha i roboty typu seoadder nie mają czego szukać. Trzeba pamiętać, że na wartość linka wpływa wiele czynników. Po pierwsze pageranks strony, po drugie ilość linków na danej stronie – im więcej linków, tym każdy z nich posiada słabszą moc. Ważna jest też treść tekstu linka i jej związek z treścią naszej strony. Podczas pozycjonowania kilku stron udało mi się również zauważyć efekt promowania nowych treści przez google. Kiedy startujesz nową stronę, jest ona dobrze zrobiona i wygląda obiecująco z perspektywy googlebota, może dość łatwo wysoko uplasować się przy popularnych frazach, na które się pozycjonujesz. Jednak efekt ten trwa ok. 3-5 tygodni. Często udawało mi się trafić do pierwszej dziesiątki, a po tym okresie spadałem niżej, w okolice dwudziestej pozycji. Google zaprzecza istnieniu takiego zjawiska. Faktycznie, możliwe jest też inne wytłumaczenie, mianowicie mechanizm wyszukiwarki zakłada, że przyrost linków na nowej stronie będzie z każdym dniem coraz większy, lecz po pewnym czasie jest on zbyt mały w stosunku do założenia, więc naturalnie strona spada niżej. Oczywiście po spopularyzowaniu strony nie ma przeszkód, by znów wrócić do pierwszej dziesiątki, tam gdzie nasze miejsce. Z rzeczy sprawdzonych wiadomo też, że keywordsy i description w metatagach mają pomijalne znaczenie dla google, możliwe że mają one jeszcze jakiś wpływ w yahoo lub msn , ale prawdopodobnie jest to tylko kwestią czasu i tam również ostatecznie będą ignorowane. Ważna jest także czystość strony pod względem kodu – zgodność z xhtml jest mile widziana przez wszystkie wyszukiwarki.

Przy pozycjonowaniu stron warto zdawać sobie również sprawę z tego, że dla przeszukiwarek linki www.kris.biz.pl , kris.biz.pl, www.kris.biz.pl/index.php stanowią trzy różne linki i trzy różne strony, dlatego pozycjonując projekt należy wybrać tylko jeden link i pozycjonować się zawsze pod nim. Najbezpieczniejsze chyba jest użycie linku http://www.kris.biz.pl/ . Dla pozycjonowania duże znaczenie ma też nazwa i wiek domeny, a także długość działania danej strony. Dlatego startując nowy projekt warto rozejrzeć się za “używanymi domenami” i nie chodzi o to, żeby koniecznie odkupić od kogoś domenę za kosmiczne pieniądze. Można na przykład użyć strony expired domain name search i wyszukać wieloletniej domeny z linkami zwrotnymi w google, która nadal posiada aktywny ruch. Na stronie expired domains można znaleźć również informacje na temat poprzedniej zawartości domeny. Jeżeli odszukasz ciekawą domenę z kilkoma linkami zwrotnymi, na której nadal widnieje ruch w alexie, to start może być o wiele łatwiejszy, niż zaczynanie od zera. Niektóre domeny zapisane są już w wielu katalogach, a ich wyższy pagerank powoduje, że boty przeszukiwarek częściej pojawią się na Twojej stronie. Jest to ważne, gdyż początkowy rozruch projektu jest bardzo pracochłonny i trwa przeważnie kilka tygodni. Istotne jest jednak, aby wyszukane domeny nie wygasły zbyt dawno temu, ponieważ ilość linków spada wraz z upływem czasu, google wyrzuca domenę ze swojej bazy, a serwisy kasują nieużywane linki. Zdarzają się jednak kwiatki z PR 3 lub 4 i kilkoma setkami linków, które można kupić za cenę kilkunastu zamiast kilku tysięcy złotych.

W pozycjonowaniu duże znaczenie odgrywa również budowa strony. Najczęściej popełniany błąd to menu we flashu, którego nie widzą roboty przeszukiwarek(wiem wiem, google już chwali się mechanizmem który crawluje flasha, ale czy ktoś wie jak to działa, czy robi to skutecznie? To nie pierwsza próba radzenia sobie z flashem. Po co narażać się skoro flash będzie gorzej interpretowany przez crawlery i wkurza też dużą część użytkowników.). Podstrony leżące zbyt daleko od strony głównej zostaną zauważone przez roboty z opóźnieniem i niżej spriorytetyzowane. Ważnym jest też, aby linki w menu były tekstowe, a nie graficzne. Być może cieniowane czcionki w grafice menu wyglądają ładniej, ale z punktu widzenia seo mają mniejszą wartość niż linki tekstowe. Pamiętać należy też o tym, że wyszukiwarki nie interpretują javascriptu (zgoda przecholowałem , ale sprawa jest podobna jak z flashem, lepiej robić to tak aby mieć pewność że google tam wejdzie. Zwłaszcza że na wielu serwisach zauważyć można ciekawe rozwiązania, które powodują że i crawler ma się czym najejść i użytkownicy mają dynamiczną stronę. Np. vbulletin) i nadużywanie ajaxa będzie miało ujemny wpływ na pozycjonowanie. Następna zasada – nie używać tekstów w linkach, które nic nie mówią np. link, kliknij tutaj ; teksty opisujące linka mają bardzo silny wpływ na pozycjonowanie w danej frazie i wpisywanie tam nieprzemyślanych słów mija się z sensem. Google analizuje prawdopodobnie do 70 znaków anchor’a linku więc warto to wykorzystać karmiąc robota swoim tekstem. Ważne są też tzw. friendly url’s – lepiej pokazać w linku frazy z jasną, zrozumiałą treścią, jak np. http://kris.biz.pl/pozycjonowanie-stron-internetowych/ niż http://kris.biz.pl/index.php?post=1, ponieważ w drugim przypadku, jako że jest nieczytelny, niczego nie zyskamy. Kolejna rada dotyczy zachowania umiaru z gęstością słowa, na które się pozycjonujesz. Jeżeli dana fraza pojawi się na stronie w gęstości większej niż 10% , google uzna to za spam. Optymalna gęstość to 3-7%. Warto więc na bieżąco analizować uszkodzone linki i poprawiać je lub przenosić ruch na nowe strony za pomocą redirect 301.

(w związku z licznymi protestami przeciwko wrzucaniu wszystkich firm pozycjonujących do jednego worka wycofuje się z mojej wypowiedzi na ten temat)

Na koniec sprawa chyba najważniejsza. Pamiętaj zawsze, że docelowo Twoja strona przeznaczona jest dla ludzi i to od jej jakości i użyteczności zależy, ile spędzą na niej czasu, czy napiszą o Twojej stronie na swoim blogu i czy ostatecznie ruch pozwoli Ci zarobić na reklamach. Wypozycjonowanie projektu to jedna strona medalu a zatrzymanie ludzi na stronie i stworzenie wartościowego dla nich contentu to już zupełnie inna bajka.

5 Responses to “pozycjonowanie stron internetowych (seo) – kilka uwag praktycznych”

  1. h-a-r-v Says:

    Traktujac o pozycjonowaniu nie mozna nie wspomniec o opracowanej przez chlopakow z Seomoz i aktualizowanej (poki co v.2) liscie czynnikow pozycjonowania:

    http://www.seomoz.org/article/search-ranking-factors

    To juz nie sa jacys tam pozycjonerzy, ktorych traktowac mozna z przymrozeniem oka.

  2. Mendax Says:

    Błędne i nieprecyzyjne stwierdzenia z tego artykułu:

    -“W Polsce do niedawna dużą część ruchu można było ściągnąć z onet”
    -“aby nasza strona pozycjonowała się wysoko, musi ona cały czas zdobywać (…) nową treść.”
    -“Jeden dobry link ze strony o wysokim PR pozwoli uzyskać większy efekt, niż 10 000 linków ze stron bez PR.”
    -“Bezwartościowe są zwłaszcza linki z lewych katalogów”
    -“na wartość linka wpływa wiele czynników. Po pierwsze pageranks strony”
    -“description w metatagach mają pomijalne znaczenie dla google”
    -“zgodność z xhtml jest mile widziana przez wszystkie wyszukiwarki.”
    -“www .kris .biz .pl , kris .biz. pl, www. kris. biz. pl/ index. php stanowią trzy różne linki i trzy różne strony”
    -“menu we flashu, którego nie widzą roboty przeszukiwarek”
    -“Być może cieniowane czcionki w grafice menu wyglądają ładniej, ale z punktu widzenia seo mają mniejszą wartość niż linki tekstowe.”
    -“wyszukiwarki nie interpretują javascriptu”
    -“Jeżeli dana fraza pojawi się na stronie w gęstości większej niż 10% , google uzna to za spam.”
    -“zlecanie pozycjonowania firmom zewnętrznym, moje doświadczenie wskazuje jednak, że nie jest to dobre rozwiązanie.”

    Skomentowałbym każde z powyższych zdań, ale chyba szkoda mojego czasu – lepiej niech Kolega potestuje samodzielnie co najmniej kilka miesięcy i poczyta “stwierdzeń ekspertów na temat działania niektórych mechanizmów i zasad jakich należy się trzymać”…

  3. admin Says:

    krytyka też musi być, ja się w końcu nie uważam za eksperta :)
    dzięki też Mendax za ten link:
    http://blog.killbill.pl/kurs-pozycjonowania/

  4. admin Says:

    ustosunkowałem się do kilku uwag w tekście, a co do kilku pozostałych to jest mi ciężko bo nie ma żadnych konkretnych argumentów

  5. juras Says:

    warto przyjzec sie programowi sprytne katalogowanie, uzywam od niedawna, dodaje strone do wartosciowych katalogow i widze juz efekty :)

Leave a Reply

Preview: