W 1997 dwóch doktorantów z Uniwersytetu Stanforda: Larry Page i Sergey Brin stworzyli nową wyszukiwarkę - BackRub. Nowa metoda wyszukiwania polegała na analizie linków przychodzących, czyli odnośników z innych stron do naszej strony www. Można powiedzieć, że od tego czasu pozycjonowanie stron www to przede wszystkim umiejętne zarządzanie linkami. Dlaczego akurat linki?
Oto prosta analogia działania linku: Jeżeli chcemy opowiedzieć komuś jak wygląda las możemy wspomóc się na przykład fotografią w książce. Zdjęcie z drzewem lub lasem będzie idealnym i adekwatnym do sytuacji uzupełnieniem opisu. Jak to się ma do linków? Linki w SEO są właśnie takimi wskaźnikami do przykładów. Wróćmy do naszego przykładu z lasem. Jeżeli nasza strona internetowa opisuje zagadnienia związane z lasem i umieścimy na niej link, prowadzący do innej strony o podobnej tematyce, to dla wyszukiwarki będzie to sygnał, że strona wskazywana przez link jest dla nas wartościowa, godna polecenia. Taki link zwiększa wartość strony, do której prowadzi.
Jeszcze parę zdań o BackRub. Algorytm, który w niej zastosowano opierał się na Page Rank. Page Rank to ocena strony, która opiera się na ilości i jakości linków do niej prowadzących. Najoczywistszym działaniem, jakie mogli podjąć pozycjonerzy było zwiększanie ilości linków. Zaczęły powstawać całe serwisy zajmujące się tylko linkowaniem. Można tam było umieszczać linki, kupować lub wymieniać się nimi. Równolegle powstawały katalogi, gdzie można było dodać stronę oraz umieścić do niej link.
Jak się zapewne domyślacie, albo i nie ;) BackRub to dzisiejszy Google. Dwa lata po powstaniu BackRuba powstała firma Google Inc., a biedni doktoranci są dziś milionerami. Algorytm wyszukiwania, a właściwie ustalania pozycji wyszukiwanych stron na listach z wynikami jest najbardziej chronioną tajemnicą tej firmy. Oczywiście podlega on nieustającym modyfikacją by specjaliści od SEO mieli jak najmniejszy wpływ na tzw. TOP 10 czyli pierwszą dziesiątkę wyników.
W następnej części napiszę trochę o mocy linków oraz o tym jak skutecznie linkować.
środa, 14 marca 2012
sobota, 10 marca 2012
Samodzielne pozycjonowanie - co musisz wiedzieć. cz.1
Pozycjonowanie, dla mnie, to nic innego, jak oszukiwanie algorytmów wyszukiwarek, że strona, którą pozycjonujemy jest ciekawsza i budzi większe zainteresowanie, niż to jest w rzeczywistości. No tak, tylko jak oszukać algorytmy, tworzone przez tęgie głowy? Może trochę historii.
W połowie lat dziewięćdziesiątych pierwsze strony www były indeksowane przez wyszukiwarki. Roboty wyszukiwarek, czyli programy przeglądające strony internetowe, oceniały strony na podstawie ich opisów tzw. metatagów. Opisy stron www, były tworzone przez webmasterów. Jak możecie się domyślać prowadziło to do nadużyć. Ponieważ metatagi były jedynym kryterium oceny, szybko zauważono, że jest to prosty sposób to wywindowania pozycji strony internetowej w wynikach wyszukiwania. Trzeba było wymyślić coś lepszego, bardziej obiektywnego. Zaczęto większą wagę przykładać do treści strony oraz linków do niej prowadzących. Tak narodziło się SEO czyli manipulacja lub ładniej, optymalizacja stron pod algorytmy wyszukiwarek internetowych.
Zacznijmy od zawartości strony. Jak manipulować treścią strony, skoro algorytm analizuje treść, a nasza strona ma jej za mało lub treść jest zbyt ogólna, nie zawiera fraz (słów kluczowych), po wpisaniu których, powinna zostać znaleziona przez wyszukiwarkę? Zaczęto umieszczać słowa kluczowe w kolorze tła, tak by zwykły użytkownik ich nie widział, natomiast programy przeglądające uznawały, że strona zawiera ich bardzo dużo. Innym ciekawym sposobem było takie umieszczenie tekstu, by był poza obszarem wyświetlanym przez ekran monitora. Wystarczyła podstawowa znajomość html'a i już inne rzeczy widział użytkownik, a inne program. SEO to nieustanna walka pozycjonerów i osób tworzących wyszukiwarki, dlatego też pozycjonowanie stron jest procesem ciągłym. Nie trzeba było długo czekać na ulepszone metody odnajdywania wartościowych stron, bardziej odpowiadających treścią do zapytań. Tekst w kolorze tła oraz poza obszarem wyświetlanym szybko został uznany za próbę oszustwa i strony stosujące takie praktyki, były blokowane w wynikach wyszukiwania.
Jeszcze innym sposobem, który bardzo długo był popularny w kręgach SEO był tzw. cloaking. O co chodzi? Przeglądarka internetowa "przedstawia się" inaczej niż program przeglądający stronę. Zaczęto to wykorzystywać tworząc w zależności od oglądającego dwie wersje strony. Ta dla wyszukiwarki posiadała duże nagromadzenie słów kluczowych. Ta technika długo była w modzie, gdyż była dość trudna do wykrycia, ale i na to znalazł się sposób.
W następnym poście napiszę trochę o znaczeniu linków oraz powstaniu najważniejszej wyszukiwarki, która zmieniała oblicze internetu.
W połowie lat dziewięćdziesiątych pierwsze strony www były indeksowane przez wyszukiwarki. Roboty wyszukiwarek, czyli programy przeglądające strony internetowe, oceniały strony na podstawie ich opisów tzw. metatagów. Opisy stron www, były tworzone przez webmasterów. Jak możecie się domyślać prowadziło to do nadużyć. Ponieważ metatagi były jedynym kryterium oceny, szybko zauważono, że jest to prosty sposób to wywindowania pozycji strony internetowej w wynikach wyszukiwania. Trzeba było wymyślić coś lepszego, bardziej obiektywnego. Zaczęto większą wagę przykładać do treści strony oraz linków do niej prowadzących. Tak narodziło się SEO czyli manipulacja lub ładniej, optymalizacja stron pod algorytmy wyszukiwarek internetowych.
Zacznijmy od zawartości strony. Jak manipulować treścią strony, skoro algorytm analizuje treść, a nasza strona ma jej za mało lub treść jest zbyt ogólna, nie zawiera fraz (słów kluczowych), po wpisaniu których, powinna zostać znaleziona przez wyszukiwarkę? Zaczęto umieszczać słowa kluczowe w kolorze tła, tak by zwykły użytkownik ich nie widział, natomiast programy przeglądające uznawały, że strona zawiera ich bardzo dużo. Innym ciekawym sposobem było takie umieszczenie tekstu, by był poza obszarem wyświetlanym przez ekran monitora. Wystarczyła podstawowa znajomość html'a i już inne rzeczy widział użytkownik, a inne program. SEO to nieustanna walka pozycjonerów i osób tworzących wyszukiwarki, dlatego też pozycjonowanie stron jest procesem ciągłym. Nie trzeba było długo czekać na ulepszone metody odnajdywania wartościowych stron, bardziej odpowiadających treścią do zapytań. Tekst w kolorze tła oraz poza obszarem wyświetlanym szybko został uznany za próbę oszustwa i strony stosujące takie praktyki, były blokowane w wynikach wyszukiwania.
Jeszcze innym sposobem, który bardzo długo był popularny w kręgach SEO był tzw. cloaking. O co chodzi? Przeglądarka internetowa "przedstawia się" inaczej niż program przeglądający stronę. Zaczęto to wykorzystywać tworząc w zależności od oglądającego dwie wersje strony. Ta dla wyszukiwarki posiadała duże nagromadzenie słów kluczowych. Ta technika długo była w modzie, gdyż była dość trudna do wykrycia, ale i na to znalazł się sposób.
W następnym poście napiszę trochę o znaczeniu linków oraz powstaniu najważniejszej wyszukiwarki, która zmieniała oblicze internetu.
Subskrybuj:
Posty (Atom)