Jesteś tutaj: webmade.org >> porady >> seo
autor: Krzysztof Sawicki, ostatnia modyfikacja: 2007-02-23
Dzięki wyszukiwarkom generuje się całkiem spory ruch na stronach. Prawie żaden właściciel małej strony prywatnej nie może liczyć na wysoką pozycję w wynikach wyszukiwarek. Ich strony pojawiają się zazwyczaj gdzieś pod koniec wyników wyszukiwania. Dlaczego? Bo stronę zrobili bezmyślnie. Ten tekst ma przybliżyć webmasterom sztukę tworzenia stron, dobrze ocenianych przez wyszukiwarki.
Według serwisu ranking.pl z dnia 30.10.2003. Polacy najchętniej używają wyszukiwarki Google (38,4%). Jest to wyszukiwarka z największą bazą zaindeksowanych stron, dużo większą niż posiada konkurencja. Na następnym miejscu plasuje się wyszukiwarka Onetu (27,4%), a zaraz za nią wyszukiwarka Wirtualnej Polski (25,6%). Reszta wyszukiwarek to dość mały procent udziału, ale nie można o nich zapominać. I tak: z polskojęzycznych wyszukiwarek godne zauważenia są: interia.pl (2%), szukacz.pl (1,8%), netsprint.pl (1%) i gooru.pl (0,3%). Trzy pierwsze wyszukiwarki mają ponad 90% rynku. Są największymi "polecaczami" naszych stron. Warto na nie zwrócić największą uwagę.
Często pada pytanie: dlaczego nie widzę swojej strony w wynikach wyszukiwania dla słowa kluczowego, które podałem w keywords? Są dwie możliwe odpowiedzi. Pierwszą jest, że strona nie została zgłoszona do wyszukiwarki (tzn. wyszukiwarka jeszcze o niej nic nie wie), a druga odpowiedź jest zawsze prawdziwa jeśli strona została już zgłoszona i zaindeksowana. Mianowicie nowoczesne wyszukiwarki nie zwracają uwagi na słowa kluczowe w <meta name="keywords" content="..." />. Dzisiaj liczy się treść! Bo to treść jest najbardziej obiektywnym elementem strony, z którego tworzone są rankingi (właściwie to słowa kluczowe są brane pod uwagę, ale tylko wtedy gdy ich zawartość pokrywa się z treścią strony). Bo co z tego, że w słowach kluczowych wystąpi słowo "jabłko" jeśli nie wystąpi ono ani razu w treści strony, bo strona dotyczy czegoś innego. Wyszukiwarki kierowały na taką stronę, myśląc, że jest o jabłkach, a potem były przeklinane przez użytkowników, ponieważ dawały złe, bezużyteczne wyniki. Samo występowanie słów kluczowych w treści strony też nie jest gwarancją sukcesu. Nie mogą one występować zbyt często i zbyt blisko siebie, bo wyszukiwarki mogłyby potraktować to jako "spamowanie" i usunąć stronę z wyników. Dodatkowo niektóre elementy na stronie mają wyższy priorytet od zwykłego tekstu. Na przykład słowo kluczowe, które wystąpi w nagłówku <h1> jest dla wyszukiwarki ważniejsze niż wystąpienie tego słowa w zdaniu. Wiadomo, że nagłówki są dobrym sposobem na krótkie oddanie zawartości następnych akapitów. Wyszukiwarki też to wiedzą i nagłówki u nich są dużo ważniejsze niż zwykły tekst. Wiele osób całkowicie zapomina o nagłówkach i zastępuje je odpowiednimi obrazkami lub sformatowanym tekstem. Należy pamiętać, że pajączki wyszukiwarek są po prostu tekstowymi przeglądarkami i nie zwracają uwagi na grafikę i formatowanie. Zwracają natomiast uwagę na logiczny układ strony, czyli właśnie gdzie są nagłówki, gdzie akapity, gdzie hiperłącza, a gdzie powinien zostać wstawiony tekst alternatywny zamiast obrazka. I kolejny problem. Masa webmasterów nie umieszcza tekstu alternatywnego w tagu <img />. Skąd więc pajączki mają wiedzieć, co na tych obrazkach jest? Zawsze lepiej jest umieszczać tekst alternatywny, szczególnie przy obrazkowych odnośnikach. Wszystkie te zalecenia potwierdzają, że rozdzielenie treści od formy (XHTML + CSS) jest słuszne i ułatwia pracę webmasterom, użytkownikom i tym samym pajączkom przeszukującym strony.
Wiele osób uważa adresy stron, które posiadają za nieciekawe, zbyt długie, albo trudne do zapamiętania. Nie można się temu dziwić, ale należy pamiętać, że nie powinno się zgłaszać do zaindeksowania aliasów. Cały problem polega na tym, że najczęściej alias to po prostu ramka, która ładuje stronę docelową. Nikt nie może zagwarantować, że pajączek wyszukiwarki podąży za odnośnikami w tagu <frame>. Tym samym nie powinno się serwować wyszukiwarkom całych stron zbudowanych na ramkach. Pajączek zapisze sobie tylko adres, tytuł strony i ewentualnie słowa kluczowe z sekcji <head>. W wynikach wyszukiwania nie pojawi się kawałek tekstu, który odnosi się do zadanych słów kluczowych, ten sam kawałek tekstu, który pomaga na odróżnienie potencjalnie dobrej odpowiedzi od błędu wyszukiwarki. Poza tym, jeśli już nawet pajączek zaindeksuje wszystkie podstrony, to użytkownik wyszukiwarki, który zobaczy w wynikach jedną z podstron i kliknie na odnośnik do niej, nie zobaczy głównego dokumentu zawierającego opis ramek, tylko pojedynczy, wyrwany z "kontekstu graficznego" plik. Jak widać używanie ramek upraszcza pracę nad witryną tylko pozornie.
Jeśli uważasz, że Twoja strona jest najlepsza, to dlaczego nie jest popularna? Warto zadbać o popularność swojej strony. Można to zrobić na dwa sposoby: zgłaszając stronę do katalogów, wymieniając się linkami z zaprzyjaźnionymi autorami stron o podobnej tematyce (chociaż tematyka nie jest wcale taka ważna) oraz serwując czytelnikom taką zawartość, której nigdy nie zapomną i będą polecać znajomym albo na grupach dyskusyjnych. Duże przeglądarki zazwyczaj mają powiązany ze sobą katalog stron WWW. Polska czołówka nie jest tutaj wyjątkiem. Google premiuje wyższymi pozycjami w wynikach strony, które znajdują się w katalogu dmoz.org, Onet premiuje strony z katalogu OKO (Ogólnopolski Katalog Onetu), a Wirtualna Polska z żadnego innego, tylko Katalogu Wirtualnej Polski. Nie zaszkodzi zgłaszać stron do wszystkich znanych katalogów ogólnotematycznych albo specjalizowanych. W końcu ich ideą jest stworzenie listy stron WWW. Wyszukiwarki (a w szczególności Google) "gloryfikują" strony do których prowadzi dużo odnośników z innych stron. Warto zadbać o taką popularność wymieniając się na przykład ze znajomymi adresami do stron. Wiele prywatnych, a czasem nawet i strony firmowe zawiera dział z linkami, a wsród nich linki z wymiany. Zapewnienie sobie sporej liczby hiperłącz z innych stron wymaga trochę czasu i poświęcenia, ale daje zazwyczaj spore efekty. A jak znaleźć strony, które chcą się wymieniać linkami? No cóż, trzeba skorzystać z wyszukiwarki ;-)
Jednak autorowi strony najbardziej sprawiają radość bezinteresownie umieszczone linki na innych stronach. To one najrzetelniej ukazują to jak strona jest postrzegana w Internecie: czy jest warta odwiedzin, czy też nie. Niestety, uzyskanie tego typu odnośników wymaga najwięcej pracy. Na stronie musimy zamieścić coś, co spodoba się odwiedzającym, co zostanie przez nich uznane za rzetelną informację. Dlatego nikt nie powinien liczyć, że zdobędzie niesamowitą popularność dla swojej strony, jeśli nie będzie publikował dobrych, świeżych, interesujacych i nie skopiowanych znikąd artykułów. Sama tematyka strony też jest ważna. Nikt nie powinien liczyć, że jego nowa strona o zarabianiu w Internecie będzie generowała dziesiątki megabajtów ruchu dziennie.
Oj, jak wiele osób uważa, że wyszukiwarka to tylko automat i swojego rozumu nie ma. Wyszukiwarka jest automatem i swojego rozumu nie ma, to prawda, ale rozum mają ludzie, którzy tą wyszukiwarkę stworzyli. Wszelkie próby oszukiwania wyszukiwarki, czyli spamowania wyszukiwarek, są zazwyczaj źle traktowane przez obsługę wyszukiwarek i dają efekty co najwyżej krótkotrwałe.
Pierwszym sposobem, już dawno wyeliminowanym przez wyszukiwarki, jest duplikowanie słów kluczowych oraz wpisywanie słów, które są popularne, a nie są zupełnie związane z tematyką strony. Meta keywords jest na tyle mało wiarygodnym źródłem danych dla wyszukiwarki, że większość wyszukiwarek już całkowicie omija tą linijkę (jeszcze tylko onet.pl zwraca uwagę na słowa kluczowe, ale nie daje się nabrać na ich duplikowanie).
Sposobem, który teoretycznie ma przechytrzyć wyszukiwarki, które zwracają uwagę na zawartość strony, jest umieszczanie ukrytego tekstu. W ukrytym polu formularza (<input type="hidden">) lub w paragrafie napisanym bardzo małymi literami w kolorze tła umieszcza się słowo kluczowe, dla którego strona powinna być wysoko w wyszukiwarkach. Ten sposób można spotkać na naprawdę wielu stronach internetowych. Jednak metoda jest dość prosta do namierzenia. Wystarczy, że wyszukiwarka nie będzie indeksowała tekstu w ukrytych polach formularza albo będzie sprawdzać jak często występują obok siebie jakieś słowa kluczowe lub ich kombinacje. Metoda ta jest jedną z prostszych i tym samym jest tak popularna, że aż blokowana i surowo karana ;-)
Bardziej zaawansowanym sposobem na oszukiwanie wyszukiwarki jest cloaking (ang. cloak - płaszcz, przykrywka). Metoda ta polega na wykryciu pajączka (na przykład po adresie IP, z którego pochodzi, lub po ciągu znaków identyfikującym przeglądarkę) i przedstawieniu mu odpowiednio spreparowanej strony. Jednak szkopuł tkwi w tym, że strona musi być naprawdę dobrze złożona, a i tak większość wyszukiwarek posiada pajączki, które nadają z różnych IP oraz "podszywają się" pod popularne przeglądarki. Porównanie zebranych danych przez pajączka zakamuflowanego i niezakamuflowanego w prosty sposób demaskuje oszukańczą stronę. Nie należy się jednak obawiać, że jeśli stosujemy wykrywanie przeglądarki i serwujemy im różne wersje możemy zostać potraktowani przez pajączka jako oszuści. Jeśli rozpoznawanie przeglądarki oraz cały mechanizm dynamicznego tworzenia strony zostaną przemyślane (np. serwowanie przeglądarkom różnych arkuszy stylów, bez zmiany treści strony) nie powinniśmy się obawiać dyskwalifikacji.
Niektórzy stosują strony przejściowe, zawierające "wabik na wyszukiwarki", które normalne przeglądarki prawie natychmiast przekierowują do rzeczywistych stron. Ale jaki to stwarza problem dla twórców pajączków? Praktycznie żaden.
Ostatnio spotkałem się (a zapewne nie tylko ja) z dziwną, bo moim zdaniem nie przynoszącą żadnych pożytecznych odwiedzin, metodą oszukiwania wyszukiwarek. Pewien serwis na swoim serwerze tworzy dokumenty o nazwach i tytułach takich jak popularniejsze zapytania dla wyszukiwarek. Te dokumenty najprawdopodobniej w ogóle nie istnieją. Zapewne to serwer "udaje", że takie posiada. Pajączki to zaindeksowały, ustanowiły na dość wysokich pozycjach, twórcy tego systemu szybko wyedytowali procedury tworzące te strony, tak, żeby przekierowywały na inną stronę, już rzeczywistą i ludzie, zachęceni wysokimi pozycjami "wpadają w pułapkę". Jednak ten sposób jest zupełnie nieprzemyślany, bo ogromne rzesze ludzi, którzy przypadkiem trafiają na taką stronę zaraz z niej wyjdzie. Ten sposób jest głupi i denerwujący. Zapewne jego żywot będzie trwał tylko do następnych odwiedzin pajączka.
Większość sposobów oszukiwania wyszukiwarek jest karana chociażby przez usunięcie strony z wyników. Jedynie najnowsze, ukrywane przez swoich twórców, metody mogą być skuteczne. Ale przecież twórcy wyszukiwarek dokładnie wiedzą co się dzieje w biznesie pozycjonowania. Tak samo jak administratorzy serwerów pocztowych i producenci oprogramowania filtrującego niechcianą pocztę wiedzą co się dzieje u spamerów, jakie technologie aktualnie wykorzystują. W tych konkurujących ze sobą środowiskach szpiegostwo jest nieuniknione. Osoby zajmujące się pozycjonowaniem, można powiedzieć, są pasożytami wykorzystującymi słabe punkty wyszukiwarek. I jakoś ten świat się kręci...
Krzysztof Sawicki, http://antylameriada.net
szukaj: pozycjonowanie optymalizacja SEO wyszukiwarki
Osoby czytające tę publikację przeglądały również:
© 2004-2008 copyright by webmade.org