Archive

Posts Tagged ‘seo’

Narzędzia do mierzenia TrustRank

November 9th, 2011

Aby rozwiązać problem ze  spamem w sieci, w 2004 roku pracownicy Uniwersytetu Stanforda: Zoltan Gyongyi i Hector Garcia-Molina oraz pracownik Yahoo - Jan Pedersen, postanowili napisać algorytm, który będzie wspomagał pracowników Google (SQT, czyli Search Quaility Team) w usuwaniu spamu z wyników wyszukiwania. O wycieku dokumentu z wytycznymi dla pracowników  Google pisał ostatnio Piotr, swoją drogą całkiem ciekawe informacje, ale w sumie bez rewelacji.

Wracając do samego  algorytmu,  przedstawia się on następująco:

źródło: http://www.vldb.org/conf/2004/RS15P3.PDF

Czyli najprościej rzecz ujmując TrustRank to algorytm pomocny do oceniania stron internetowych i oddzielenie złych witryn (głównie spamerskich) od tych dobrych.

Jest to inny algorytm niż Google PageRank, ale oba jakby wzajemnie się uzupełniają – jak kwiaty i pudełko czekoladek, które ofiarowałbyś swojej wybrance ;)

W jaki sposób działa algorytm TrustRank?

Otóż algorytm w pierwszej kolejności wybiera  około 200 stron (tzw : “seed pages”), których status musi zostać potwierdzony przez operatora za pomocą tzw. „Quality Review”, a następnie, po wybraniu tzw. „dobrych” stron, TrustRank porównuje kolejne strony do tych już wcześniej wybranych i zatwierdzonych jako dobre i nadaje im odpowiednią punktację TR.

Dobre, tj. wartościowe i wiarygodne strony to dla wyszukiwarki Google to takie, któr:

  • istnieją co najmniej kilka lat,
  • publikującą politykę prywatności
  • posiadają merytoryczną treść
  • posiadającą prawdziwe dane kontaktowe, adres fizyczny
  • będące bezpiecznymi, posiadającymi certyfikat SSL
  • będących zgodnych z prawem (żadne tam porno, hazard czy treści nawołujące do agresji)
  • są często aktualizowane
  • po prostu wyjątkowe i jedyne w swoim rodzaju (nie żadne tam szablony.
  • nie linkujące do spamu

TrustRank łatwo można zwiększyć dzięki linkom ze stron rządowych, edukacyjnych lub wojskowych, które wyszukiwarka Google uważa za wyjątkowo zaufane, toteż ostatnio pojawia się coraz więcej aukcji oferujących takie linki, zdobyte przez Scrape Boxa, czy też jego nieco uboższy odpowiednik Tua Mamma. Oczywiście jak wszystko jest dla ludzi myślącą, więc trzeba ostrożnie obchodzić się z zabawkami, aby się nie skaleczyć.

Czym zatem sprawdzić TrustRank?

Jest kilka narzędzi dostępnych w sieci. Na uwagę zasługują:

1. Trust rank checker

http://www.seomastering.com/trust-rank-checker.php

 

2.Trustrank Checker

http://www.trustrank.gen.tr/

Oprócz tych powyższych znajdziemy w sieci:

3. http://www.trustrank.org/

4. http://www.checktrustrank.com/

Jednak marny z nich pożytek, albo wskazują 0 (w pierwszym wersja beta), albo pojawia się komunikat z błędem (w drugim)

 

google, pozycjonowanie , , ,

Google Panda w Polsce – czym się objawia i jak się bronić

September 8th, 2011

Wielu SEMitów i SEOwców (czyli pozycjonerów, analityków webowych) w tym roku zadrżało na wieść wprowadzenia przez Google zmian w algorytmie wyszukiwarki, nazwanym Panda. Zmiany w algorytmie były nieuniknione, miały wyeliminować z indeksu śmieciowe strony. Prędzej czy później Google wzięłoby się za strony www kradnące treść, lub strony nie będące wartościowe dla użytkowników. Moim zdaniem dobrze. Ukłon dla jasnej strony mocy i białych kapeluszy.

Panda w Polsce, czyli miś zaczął wpier***ać ruch.

Już na wiosnę pozycjonerzy zaobserwowali spadki w ruchu z długiego ogona oraz spadek w ilości zaindeksowanych stron. Pisał o tym Piotr w marcu,  użytkownik PIO o nicku Pandha na swoim blogu.  O pandzie i jak się przed nią ustrzec pisał Paweł w czerwcu. Osobiście myślę, że to nie była Panda, a inne działania pozycjonerów, bo na dobre zmiany w algorytmie zostały wprowadzone w sierpniu, dokładnie z datą 12 sierpnia pojawił się wpis na oficjalnym blogu Google Polska i cała lawina artykułów m.in. na sprawnym, na blogach osób pozycjonujących strony i liczących się w branży: Marty, Miłosza, Michała, Sławka czy Pawła.

 

Czym się objawia łakomy miś?

Na pewno spadkiem odwiedzin. Poniżej kilka zrzutów ze statystyk, czyli jak Pandę rozpoznać.

 

Panda na obrazkach przedstawia się następująco:

Zrzut nr 1: Wszystkie odwiedziny (jak widać znaczny spadek ruchu od 12 sierpnia)

Zrzut nr 2: Wszystkie odwiedziny z wyszukiwarek

Zrzut nr 3: Wszystkie odwiedziny Google

Zrzut nr 4: Wszystkie odwiedziny z wyszukiwarki Bing – jak widać z tej wyszukiwarki nie ma spadków, nawet dla okresu od 12 sierpnia był lekki wzrost

Zrzut nr 5: Wszystkie odwiedziny z witryn odsyłających – bez wejść z Google (z zastosowaniem segmentu zaawansowanego)

Zrzut nr 6: Segment zaawansowany – wejścia bez wejść z wyszukiwarki Google.

Statystyki pochodzą z jednej stron,  której monitoring zlecono  mi ostatnio. Jak widać w statystykach, spore spadki (o 30%) od wprowadzenia Pandy. Nasuwa się wniosek: z Google’m nie ma żartów.

Przekaz twórców wyszukiwarki i najnowszego algorytmu jest prosty: albo z nami walczysz i tracisz ruch, albo dostosujesz się posłusznie i nie ucierpisz.

Przyglądam się ze spokojem i obmyślam strategię jak pomóc klientowi odzyskać stracony ruch z Google. Najgorsze w tym wszystkim to, że kiedyś w serwisie w latach 2006-2009 były umieszczane treści przeklejane z innych serwisów. Odsiać te złe, przefiltrować, wydzielić od dobrych, ot taki to spory kawał ręcznej roboty przede mną. No chyba, że ktoś ma jakieś pomysły. Byłbym wdzięczny za podpowiedź.

 

Jak się bronić przed żarłocznym misiem?

“Panda to z natury spokojne i nieagresywne zwierze i tak też wpłynęła na moje pozycje”

Napisała autorka jednego z komentarzy na blogu Marty i trudno się z tym nie zgodzić. Dla tych, którzy mają zadbane strony niegroźna jest Panda, dla cwaniaków i kombinatorów może już nie być tak łaskawa ;)

 

Najlepszym sposobem będzie zastosowanie w kodzie strony tagu*:

<meta name=”panda” content=”unique” />

który to Google wprowadziło dla testu, na okres przejściowy.

Poza tym na pewno wśród działań zapobiegawczych znajdą się:

  • stałe monitorowanie strony (najlepiej zlecić to firmom pozycjonującym lub freelancerom: pozycjonerom i analitykom webowym)

jeśli chodzi o wewnętrzne pozycjonowanie, to na pewno:

  • przede wszystkim porządek, tj. dbanie o treść – tak by była najbardziej wartościowa dla użytkownika  i przede wszystkim unikalna,
  • nie powielanie treści z internetu (tym bardziej kradzież przez RSS nie wchodzi w grę),
  • dbanie o zero duplikatów swojego contentu w Internecie,
  • stosowanie rel=”canonical”, o którym pisał ostatnio Piotr,
  • stosowanie starych sprawdzonych zaleceń WhiteSeo, czyli wytycznych Google dla Webmasterów.

a w przypadku zewnętrznego pozycjonowania:

  • dbanie o dobre linki – a więc selekcja, dokładna analiza stron, na których chcemy wymienić się linkami, lub je zakupić,
  • dobrze przemyślana strategia pozyskiwania linków (zamiast kupna na serwisach typu Allegro miejsca w wątpliwych serwisach i umieszczanie linków gdzie popadnie lub korzystanie z wątpliwych usług pozycjonerów, co stosują automaty, swl’e i inne maszynki z rumakami włącznie).

Więcej można też poczytać na ten temat na paru blogach firm pozycjonujących.

 

Cóż. Pozostaje monitorować sytuację i konsekwentnie stosować powyższe punkty. A Wy jak sobie radzicie z Pandą?

* oczywiście tag <meta name=”panda” content=”unique” /> nie istnieje, ale ciekaw jestem ile osób się nabierze ;)

google, optymalizacja, pozycjonowanie , , , ,

Czerwcowa aktualizacja PageRank

July 2nd, 2011

Parę dni temu, a dokładnie 28 czerwca miała miejsce aktualizacja wskaźnika Page Rank. Kolejna zmiana odnotowana już w tym roku. Strony, które obserwuję w większości utrzymały wartość wskaźnika, część wzrosła w rankingu, kilka spadło. Tak więc standardowo jak przy każdym update PR.

Dla przypomnienia, trochę teorii ;)

Co to jest PageRank?

PageRank to jeden z wielu wskaźników, który jest brany przez Google pod uwagę w rankingu stron w wynikach wyszukiwania. Wskaźnik ten określa jakość danej strony w skali od 1 do 10, na podstawie mocy przekazywanej z wielu innych stron linkujących do tej strony.

Na chwile obecną to co prezentuje i aktualizuje Google ma znaczenie tylko dla pseudo „pozycjonerów” z Allegro sprzedających linki, a sam PR nie ma już bezpośredniego wpływu na pozycje witryny w rankingu! Era PR dobiegła końca i utwierdza nas w tym przekonaniu każdy kolejny update (akutalizacja) Google. Jedyny problem to przywiązanie emocjonalne webmasterów do tego zielonego wskaźnika.

 

Page Rank - algorytm

Źródło: http://wikimedia.org

No właśnie. Lepiej linkować ze stron z większym PR niż słabszy, ale to też nie reguła, bo jak wiemy strona stronie nie równa. A każda jak wiadomo ma swoją moc, której może przekazać mniej w przypadku większej ilości linków zewnętrznych, no i wygenerować inny ruch. Tak więc przy pozyskiwaniu linków warto także wziąć pod uwagę np. LinkStrenght, SeoScore czy wskaźnik Woorank.

 

Aktualizacja PagRank z 28 czerwca 2011.

Wracając do głównego tematu notki, to z moich obserwacji wynika, że większość stron, które pozycjonuję lub monitoruję pozostała bez zmian jeśli chodzi o wartość wskaźnik PR, lub wzrosła (parę wzrostów z PR 1 do PR3). Jedna ze stron nawet wskoczyła z PR1 na PR5.

Jednak co bardzo istotne, w SERPACH pozycje stron nie uległy drastycznym zmianom, a jeśli uległy nie były to drastyczne zmiany, jedynie skoki w dół lub w górę o 1-3 pozycje. Co utwierdza mnie w przekonaniu, że PageRank nie wpływa jednoznacznie  na pozycję stron, a jest jedynie jednym z wielu (około 200) wskaźników branych pod uwagę w rankingu wyszukiwarki Google, o któryś swego czasu pisała An Smarty.

Potwierdzają zresztą to poniższe wykresy. Pierwszy uwzględniający zmianę PageRank i pozycji w wybranym okresie czasu

Jak widać nie ma tu drastycznych zmian.

Lekki spadek pozycji raczej w tym przypadku spowodowany jest utratą mocy z linków zewnętrznych. Poniżej wykres uwzględniający ilość linków zwrotnych.

 

Co do katalogów, to owszem, zmiany w wartości PR wielu katalogów się zmieniły. Jak pisał Sławek u siebie na blogu:

Ten PR update był wyjątkowo brutalny dla katalogów. Wygląda na to, że Google wzięło się za katalogi, uznając wiele z nich za mało wartościowe. Zmiany PR w dół odnotowało, aż 150 z 245 katalogów! Kilkanaście katalogów z pr4 i pr5 poleciało nawet do PR0. Można sobie tylko wyobrazić jak zrzedły miny właścicieli płatnych katalogów, gdy zobaczyli te zmiany. W wielu przypadkach takie zmiany PR będą miały wpływ na ceny wpisów w katalogach co przełoży się na ich zarobki.

245 katalogów zebranych przez Sławka, to jedynie wycinek z bazy katalogów, zawierającej ponad 14 tysięcy katalogów. Myślę, że do insynuowania wniosków typu “katalogi stron straciły na wartości” jeszcze droga daleka, gdyż należałoby do badania wziąć większą liczbę katalogów.

Z kolei z moich obserwacji wynika, że katalogi, które monitoruję (z czołowych pozycji na frazy: katalog stron, moderowany katalog stron) sytuacja wygląda następująco:

  1. 1miejsce.com.pl – wzrost z PR0 do PR2
  2. indexer.pl – spadek z PR4 do PR3
  3. katalog-stron.org – spadek z PR2 do PR0
  4. linkman.pl  – bez zmian, PR4
  5. webkat.com.pl – wzrost z PR0 do PR4
  6. www.gwiazdor.pl – spadek z PR6 do PR5
  7. www.innowacyjny.com.pl – wzrost z PR2 do PR3
  8. www.katalog.bajery.pl – spadek z PR5 do PR4
  9. www.katalog.web-tools.pl  – bez zmian, PR5
  10. www.katalogstron.com.pl – wzrost z PR4 do PR5
  11. www.katalok.pl – spadek z PR5 do PR4
  12. www.kulk.pl – spadek z PR5 do PR3
  13. www.phie.org -  spadek z PR5 do PR0
  14. www.rejestracjastron.pl  – bez zmian, PR4
  15. www.seoki.pl – wzrost z PR0 do PR3
  16. www.szukarka.net  – bez zmian, PR3
  17. www.webwweb.pl -  bez zmian, PR5
  18. www.zgred.pl -  bez zmian, PR4

 

Czyli na 18 katalogów było:

  • 7 spadków,
  • 5 wzrostów,
  • 6 pozostało bez zmian.

 

To z kolei mniejszy wycinek, ale pokazuje, że wcale tak tragicznie nie jest i jest to trochę inny rozkład procentowy. Niemniej jednak należy się temu bacznie przyglądać i prowadzić ciągłą obserwacje i analizy katalogów, zaplecza i stron konkurencji.

google, pozycjonowanie , , , , ,

Analiza konkurencji w Market Samurai

November 20th, 2010

Jednym z fajnych narzędzi do szybkiej analizy konkurencji (poza SEOquake i samym google oczywiście) jakie używam w codziennej pracy jest Market Samurai.

Program jest opracowany w technologii Adobe Air, a więc można go używać na różnych systemach operacyjnych, działa pod Windowsem, Linuxem i na Mac’u.

Możliwości jakie daje to narzędzie to m.in.:

  1. RANK TRACKER – analiza wybranych (wpisanych ręcznie ) stron konkuencji
  2. KEYWORD RESEARCH – wyszukiwanie słów kluczowych (na podstawie  Google Synonym Tool, Google Search Keywords) ich odmian, permutacji. Filtrowanie fraz możemy zdefiniować również po ilości wyrazów występujących.
  3. SEO COMPETITION – analiza konkurencji z TOP10. m.in. page Rank,  ilość linków, wiek domeny, informacje czy strona posiada linki z wartościowych domen *.edu, *.gov i informacji zawartych w kodzie strony (czy wystepują słowa w meta tatgach, w tytule, w adresie)

    market-samurai

    Ponadto można wygenerować listę stron, które linkują do którejś z tych dziesięciu stron

    market-samurai2

    a nawet przejrzeć anchor text dla każdego linku i dowiedzieć się ile razy został on użyty (bardzo fajna sprawa, tego Domain popularity w rapid.searchmetrics.com, nie oferuje):

    market-samurai3

  4. DOMAINS – generalnie służy do wygenerowanie adresów wolnych domen, zawierających frazę, którą określimy. Automatycznie dodane są przedrostki/przyrostki typu the[fraza], my[fraza], [fraza]news, [fraza]spot itp. W polskich realiach mało przydatne, ale w przypadku domen anglojęzycznych może się przydać.
  5. MONETIZATION – szukanie produktów w programach afiliacyjnych, wyszukiwanie produktów np. w amazon z przypisaną ceną i rankingiami sprzedaży.
  6. FIND CONTENT – wyszukiwanie treści w artykułach, blogach, agregatorach linków. Jakbym miał być sczery socialmention.com oferuje więcej możliwości.
  7. PUBLISH CONTENT –  jeśli mamy podpiętego wordpressa do Market Samurai, możemy publikować w w wordpressie treści. Ja tam wolę samego WP ;)
  8. PROMOTION – szukanie backlinków w różnych serwisach (na blogach i forach)
  9. ADWORDS –  ta funkjconalność w przygotowaniu.

Do plusów zliczyć mogę prostotę obsługi, możliwość exportowania plików (szkoda, że jedynie csv), ale czego chcieć od programiku za $97.  Wierzcie mi lub nie, ale dzięki temu narzędziu można oszczędzić godziny.

pozycjonowanie , , ,

Lista ponad 2500 katalogów stron

December 2nd, 2009

Przygoda z Webmini

Po wpisie google  vs webmini u Marcina, który to wpis mnie zainteresował też postawiłem sobie Webmini modyfikując nieco kod, aby różnił (nie tylko obrazkiem, kolorkami, anchorami linków czy nagłówkami) się od całej masy katalogów opartych o ten skrypt. Na dodatek użyłem innego systemu do tworzenia screenów ze stron (www.websnapr.com), który wydaje mi się, że o wiele szybciej generuje miniturki nowych stron niż http://open.thumbshots.org.

Webmini sobie wisi, przybywa wpisów. Zobaczymy co na to G.

Analiza katalogów

Po zabawie ze skryptem wzięło mnie na analizę katalogów, do których dodaję strony. Głównie korzystam z opracowanej już listy i szukam dodatkowych katalogów w zbiorach typu:

Jest ich sporo, ale wciąż zadaję sobie pytanie: które to te wartościowe?

które z nich są moderowane, dobrze podlinkowane, o dobrych parametrach?

Przypadkiem natknąłem się też na listę ponad 2500 katalogów

http://www.google.pl/search?hl=pl&num=20&q=lista+katalog%C3%B3w+seo%2C+katalogi+moderowane+filetype%3Atxt&btnG=Szukaj&lr=&aq=f&oq=

którą planuję przepuścić przez SEO Quake, i poddać kolejnym analizom.

pozycjonowanie , ,

SWL’e pod kontrolą

November 21st, 2008

W poprzedniej notce pisałem m.in. o efekcie domina i spadku pozycji jednej z mych kluczowych stron. Po jednodniowym spadku pozycja wróciła i cieszy fakt utrzymującej się pierwszej pozycji w G. przez niemalże rok. Poza tym po staremu. Wzrosty, spadki, ale generalnie do przodu.

Ostatnio dostałem maila z ciekawym pytaniem od jednego z czytelników. Czy przypadkiem nie stworzyłem własnego SWL’a (system wymiany linków) i nie chciałbym go sprzedać. Niestety czasu brak, toteż i na głośno wypowiedzianym pomyśle pozostało.

Jak już jesteśmy w temacie SWL’i, o których jakiś czas temu pisałem tu i tu, to wspomnę, że mam do nich nadal dobre zdroworozsądkowe podejście (tzn. w paru mam konto, ale właściwie do testów i nie wiedzieć czemu przeczuwałem, że większe angażowanie może się źle skończyć  – nie tylko przez zdradzenie swoich działań, zaplecza, ale także spadek pozycji).

Ostatnio na temat tych systemów zaczęło się głośno.  Głośno za sprawą Kaspara Szymańskiego, który w swym wpisie na blogu Google przestrzega przed korzystaniem z SWL:

“Na polskim rynku jest kilka ofert dla webmasterów, którzy chcą na skróty zwiększyć widoczność swoich stron w indeksie Google, na przykład przez kupowanie i sprzedawanie linków lub przez SWLe. Takie metody ewidentnie wybiegają poza Porady Google dla Webmasterów, a korzystanie z SWLów może spowodować utratę reputacji strony.

(…)webmasterzy, którzy chcą promować swoją stronę w indeksie Google, nie powinni korzystać z takich podejrzanych metod”.

U Pajmona pojawił się wpis, pojawił się także u Lexy, u Piotra Cichosza i u Pawła Zinkiewicza. W  środowisku temat zachęcił do snucia bardzo ciekawych wniosków jak na blogu Marcina Duraja:

Czytając ten wpis na blogu Google cały czas zastanawiałem się nad tym, czy karanie w jakikolwiek sposób stron, które są linkowane nie jest fantastyczną metodą na pozbycie się konkurencji?

i oczywiście żywszej dyskusji w komentarzach.

W wielu kwestiach Marcin ma rację. Jak ktoś wyliczył zyski z reklam w Internecie w przyszłym roku mają wzrosnąć o 28%, a wielkie G. w dobie kryzysu finansowego na pewno nie chciałoby by działania konkurencji (firm seo i pozycjonerów) pokrzyżowało plany.

Jeszcze jeden fragment z wpisu Marcina, z którym się w pełni zgodzę przykuł moją uwagę:

Nie jestem zwolennikiem systemów i jeśli miałbym taką moc to bym sprawił by wyparowały, wtedy przynajmniej z branży znikłoby wiele Firm a samo pozycjonowanie przynosiłoby więcej satysfakcji.

Kończąc ten wpis wspomnianej satysfakcji z pozycji sobie i czytającym życzę:)

google, pozycjonowanie, swl , , , ,

Efekt domina

November 1st, 2008

Ludzie imprezują z okazji Helloween, a ja nawet nie popijam drinka, tylko jak zwykle spędzam “miło” czas przed monitorem. Na ekranie rogrzebane arkusze, analizy z różnych narzędzi, systemów i zastanawiam się, czy przypadkiem już nie zwariowałem od tego całego SEO ;) Jeszcze nie zwariowałem.

Jest dobrze, to znaczy bywało też i lepiej. Dziś jeden z klientów mnie zaskoczył i za ostatnie prace sowicie wynagrodził. Nie było by w tym nic dziwnego, gdyby nie fakt, że był to spory worek monet o nominale 5zł. Wolałbym przelew na konto i szybkie wrzucenie tej kasy w lokatę, ale cach to cash. Taka sakiewka, to takie niecodzienne zjawisko;)) Drugi z klientów coś wspominał o pozycjonowaniu strony we flashu. Oczywiście, że się da, tylko trzeba wiedzieć jak. Jutro jeszcze krótka analiza i znów nie będę miał wytchnienia, a kolejny wpis trafi znów za kilka miesięcy ;)

Przyzwyczaiłem się do Google Dance i skoków -68, +129 itp. Wielkie G. szaleje – o tym wiemy od dawna. O tym, że Page Rank pojawia się znikąd też wiemy (nie mówię o wrześniowym update), ale mimo wszystko ten fakt jest bardzo zaskakujący. Przy jednej mojej świeżej stronie w nowej domenie w kilka tygodni skoczyło do PR4 (przy 11800 backlinks w Altavista i 87 w Google) jak podaje www.xinureturns.com. Dziś z kolei odkryłem, że jedną z mych stron wywaliło z Top1 do Top13 (dobrze, że nie gdzieś w kosmos). Mam nadzieję, że to tylko chwilowe, pocieszam się, że nie jestem sam. Pajmona spotkało ostatnio coś podobnego, tylko że to marne pocieszenie.

Być może w słowach Lexy jest iskierka prawdy:

Jeżeli nie używałeś systemów wymiany linków i spadłeś to powodem może być fakt iż linki które posiadałeś np. katalogi, precle czy zaplecze posiadały linki z domen umieszczony w SWL.
Gdy owe domeny zostały objęte spadkiem mocy przestały przekazywać moc dalej tym samym nastąpił efekt domino który osłabiał kolejne witryny w szeregu.

Osobiście sceptycznie podchodzę do SWL i nie korzystam. W każdym razie jedna z lepszych porad, która pojawia się prawie wszędzie, to “czekać” (oczywiście poza dobrym linkowaniem i zgodnie z wytycznymi). Jako, że spokojny ze mnie człek, tak cierpliwie (jak zwykle) będę obserwować, by wyciągnąć odpowiednie wnioski.

Jeśli chodzi o obserwowanie, to ostatnio natknąłem się na nowe narzędzie do monitorowania linków. Jeszcze się nie zarejestrowałem i nie testowałem tego cuda, ale trochę mnie zaintrygowało i niebawem wypróbuję ;)

pozycjonowanie , , , , ,

Pozycjonowanie po czesku

June 6th, 2008

Dziś dla jednego z moich znajomych (który jest przy okazji klientem), przygotowałem czeską wersję jego strony. Nadmienię, że polska wersja ma już parę miesięcy, PR3 i trzyma się świetnie w Top1 już od dawna, z czeską będę musiał trochę powalczyć, by uzyskać równie dobre rezultaty.

Jako, że ta czeska domena niedawno zarejestrowana, wczoraj podpięta pod dobre DNS’y, a dziś pod domeną stanął serwis, tak więc pora zacząć też stronę pozycjonować.

Pewnie zapytacie od czego zacząć.

Na pewno od dodania strony do wyszukiwarek. Poza tą jedną jedyną warto na pewno dodać stronę także do innych wyszukiwarek i czeskich katalogów, m.in.:

  1. atlas.cz (PR 7, site: 1,080,000)
  2. seznam.cz (PR 7, site: 3,760,000)
  3. zdroj.cz (PR5, site: 2,860)
  4. cent.cz (PR5, site: 2,280)
  5. jednorozec.cz (PR4, site: 64,500)
  6. katalog.54.cz (PR4, site: 2,410)
  7. 1x.cz (PR3, site: 29,500)
  8. webber.cz (PR3, site: 8,660)

Oczywiście katalogów lepszych lub gorszych znajdziemy więcej, ale tych kilka na dobry start nam się przyda.

Co poza tym?
Oczywiście zaplecze tematyczne. Przydałaby się unikalna treść (najlepiej, by była ona w języku czeskim). W tym celu

  1. albo robimy to samemu, jeśli mamy czas i mamy opanowaną znajomość języka czeskiego w stopniu zadowalającym,
  2. albo zlecamy komuś pisanie tekstów i komuś też zlecimy ich tłumaczenie. W moim przypadku ze względu na brak czasu pozostaje druga opcja ;)

Tak, tak, pozycjonowanie nie jest tanie.

Sposobów na zdobywanie linków jest wiele. Warto pamiętać, żeby linki miały odpowiednią moc, muszą pochodzić z różnych IP i różnych serwisów, tak więc poza tym co już mamy na różnych kontach i resellerach, warto mieć coś nowego.

Hosting jest ważny. O nim jeszcze tu kiedyś napiszę i poświęcę dłuższy artykuł, dodam, że z pomocą oprócz komercyjnych pakietów może przyjść nam darmowy hosting. Domena również się przyda. Jeśli chodzi o domenę, z pomocą przychodzi nowa promocja w Net Art – domeny .EU za darmo na rok. Domen też nigdy za wiele ;)

Jak już będziemy mieli unikalną treść, to trzeba ją umieścić w zapleczu i dobrze podlinkować.

Co później?
Na pewno trzeba sobie dobrze zaplanować prace (dobry plan to połowa sukcesu), rozpisać wszystko, przygotować arkusz (albo użyć odpowiednich narzędzi), w którym będziemy gromadzić strony naszego zaplecza, przeanalizować też strony konkurencji. Pewnie z pomocą przyjdą też skrypty, typu scuttle, np. czeski jagg.cz (PR 6, site 953,000). Pozostaje zdobywać kolejne linki, obserwować pozycje, śledzić czeskie blogi o seo (hehe), prowadzić raporty, analizować itd.

p.s. tak w ogóle to ciekawy cennik mają nasi południowi sąsiedzi

pozycjonowanie , , , , ,

ręceprecz odtybetu

June 2nd, 2008

Tytuł notki to fraza konkursowa w mistrzostwach na pozycjonowanie stron www, które właśnie się wczoraj rozpoczęły. Już tu kiedyś, w jednej z notek, podawałem link do dyskusji, która już rozgorzała na dobre:) Będę bacznie obserwował jak to się dalej potoczy.

Na stronie organizatorów, będą pojawiać się aktualne wyniki, znajdziecie także regulamin konkursu, formularz zgłoszeniowy, oraz informację o nagrodach, które zdobędą najlepsi:

  • Laptop APPLE MacBook AIR + 3 konta PRO w e-weblinke-weblink.com
  • ETEN glofiish M700 WiFi GPSErbit.pl
  • Monitor 22” samsung 223BW wideThere24.com
  • 3 x ipod shuffleExcluseo, Michał Łenczyński
  • Iphone widzialni.pl
  • 1000 zł gotówką az.pl
  • Zestaw narzędzi Web-Tools.pl
  • 1000 zł na Linki Sponsorowane w Netsprint.pl

Konkurs trwa do 30 sierpnia, do godz 14:00. Tak więc do dzieła! :))

pozycjonowanie , ,

O skrypcie scuttler słów kilka

May 25th, 2008

Ostatnio wspomniałem o jednym z nowych systemów wymiany linków (fajnie, że specjaliści z EM poprawili program partnerski, a moje 5 punktów po dodaniu strony zamieniło się w 4999, będziemy dalej się przyglądać i namiętnie testować:P), nawet w mej głowie przemknęła myśl, by samemu coś zmajstrować, jednak niestety zabrakło czasu.

Praca na etacie i po godzinach daje chwilami w kość, a na dodatek kolejni klienci wyrastają jak grzyby po deszczu i momentami przychodzi taki moment, w którym nie wiadomo właściwie co posiada większy priorytet. Na szczęście przyszedł długi weekend i ten czas spędziłem ze znajomymi włócząc się po mieście, knajpach i na koncercie. Po małym resecie powrót przed monitor i…

… No właśnie. Znów coś nowego pojawiło się w sieci i powiem jedno: warto się temu przyjrzeć.

Skrypt scuttler

Nie będę Was tu zanudzał, że site jest ważny, chyba każdy kto para się seo wie to doskonale ;) Przypadkiem na www.web-tools.pl trafiłem na narzędzie, które zowie się Scuttler.

Scuttler wykorzystuje serwisy typu Social Bookmarking do zdobywania linków

(czyli w skrócie użytkownicy Internetu sami dzielą się swoimi znaleziskami, jak na wykopie czy del.icio.us)

i co ciekawe:

Scuttler przegląda podstrony witryny i każdego dnia wybiera do 20 unikalnych linków do dodania. Przy użyciu Automatycznej Indeksacji każdy wpis posiada unikalny opis i tytuł, oparty na bazie danych z meta tagów.

Po zalogowaniu w panelu jakoś tak od razu ów Scuttler skojarzył mi się Adderem, za pomocą którego automatycznie można dodawać strony do spam-katalogów. Tylko, że założeniem Scuttlera jet generowanie contentu w katalogach typu Scuttle, czy jak kto woli w serwisach Social Bookmarking, wyciągając linki z domen, które podamy, np. z ulubionych blogów. Z automatu ilość linków przybywa, a im większy site, wiadomo, lepiej – “Content is King”.

Na pierwszy rzut oka Scuttle, o którym Mendax pisał już w styczniu, jest łatwy do wytropienia, toteż z lekkim sceptyzmem podchodzę do tego skryptu, jak i Scuttlera podobnie jak kilka osób na forum.

Cóż jeszcze można dodać na zakończenie?

Scuttler to wydatek rzędu 84,18zł, więc pewnie nie każdy się połakomi na ten skrypt. Poza tym już są inne narzędzia (m.in. bookmarkingdemon), za pomocą których można wypełniać Scuttle.

pozycjonowanie , , , ,