Archive

Archive for the ‘google’ Category

Narzędzia do mierzenia TrustRank

November 9th, 2011

Aby rozwiązać problem ze  spamem w sieci, w 2004 roku pracownicy Uniwersytetu Stanforda: Zoltan Gyongyi i Hector Garcia-Molina oraz pracownik Yahoo - Jan Pedersen, postanowili napisać algorytm, który będzie wspomagał pracowników Google (SQT, czyli Search Quaility Team) w usuwaniu spamu z wyników wyszukiwania. O wycieku dokumentu z wytycznymi dla pracowników  Google pisał ostatnio Piotr, swoją drogą całkiem ciekawe informacje, ale w sumie bez rewelacji.

Wracając do samego  algorytmu,  przedstawia się on następująco:

źródło: http://www.vldb.org/conf/2004/RS15P3.PDF

Czyli najprościej rzecz ujmując TrustRank to algorytm pomocny do oceniania stron internetowych i oddzielenie złych witryn (głównie spamerskich) od tych dobrych.

Jest to inny algorytm niż Google PageRank, ale oba jakby wzajemnie się uzupełniają – jak kwiaty i pudełko czekoladek, które ofiarowałbyś swojej wybrance ;)

W jaki sposób działa algorytm TrustRank?

Otóż algorytm w pierwszej kolejności wybiera  około 200 stron (tzw : “seed pages”), których status musi zostać potwierdzony przez operatora za pomocą tzw. „Quality Review”, a następnie, po wybraniu tzw. „dobrych” stron, TrustRank porównuje kolejne strony do tych już wcześniej wybranych i zatwierdzonych jako dobre i nadaje im odpowiednią punktację TR.

Dobre, tj. wartościowe i wiarygodne strony to dla wyszukiwarki Google to takie, któr:

  • istnieją co najmniej kilka lat,
  • publikującą politykę prywatności
  • posiadają merytoryczną treść
  • posiadającą prawdziwe dane kontaktowe, adres fizyczny
  • będące bezpiecznymi, posiadającymi certyfikat SSL
  • będących zgodnych z prawem (żadne tam porno, hazard czy treści nawołujące do agresji)
  • są często aktualizowane
  • po prostu wyjątkowe i jedyne w swoim rodzaju (nie żadne tam szablony.
  • nie linkujące do spamu

TrustRank łatwo można zwiększyć dzięki linkom ze stron rządowych, edukacyjnych lub wojskowych, które wyszukiwarka Google uważa za wyjątkowo zaufane, toteż ostatnio pojawia się coraz więcej aukcji oferujących takie linki, zdobyte przez Scrape Boxa, czy też jego nieco uboższy odpowiednik Tua Mamma. Oczywiście jak wszystko jest dla ludzi myślącą, więc trzeba ostrożnie obchodzić się z zabawkami, aby się nie skaleczyć.

Czym zatem sprawdzić TrustRank?

Jest kilka narzędzi dostępnych w sieci. Na uwagę zasługują:

1. Trust rank checker

http://www.seomastering.com/trust-rank-checker.php

 

2.Trustrank Checker

http://www.trustrank.gen.tr/

Oprócz tych powyższych znajdziemy w sieci:

3. http://www.trustrank.org/

4. http://www.checktrustrank.com/

Jednak marny z nich pożytek, albo wskazują 0 (w pierwszym wersja beta), albo pojawia się komunikat z błędem (w drugim)

 

google, pozycjonowanie , , ,

13 urodziny Google

September 27th, 2011

Dziś Google obchodzi 13 urodziny, o czym informuje nas grafika będąca  logo wyszukiwarki.

13 yearrs Google

Wszystkiego najlepszego wujku Guglu! smile.gif Bądź wyrozumiały wink.gif

- napisał jeden z pozycjonerów na Forum PIO.

 

Garść informacji

Rok temu, przy okazji 12 urodzin serwis dobreprogramy.pl pisał:

Z urodzinami internetowego giganta jest trochę zamieszania. Jako spółka Google powstał 4 września 1998 roku, zaś szczegóły wczesnych specyfikacji technicznych wyszukiwarki pojawiły się w Sieci 20 września. Pierwszy pracownik (Craig Silverstein) zatrudniony został dzień później, a już w grudniu 1998 roku Google został uznany za najlepszą wyszukiwarkę internetową przez PC Magazine. Prototyp strony głównej wyszukiwarki wprowadzono 11 listopada tego samego roku. Z powodu tylu istotnych dat za symboliczny dzień urodzin uznano 27 września.

 

Dziś Google, to potężna firma zatrudniająca prawie 29 tysięcy pracowników, posiadająca  około 40 miliardów dolarów w gotówce, mająca w swej historii ponad 100 przejęć za ponad 16 mld dolarów,, posiadająca już ponad 10 milionów użytkowników Google+, a w Polsce posiadająca 16 984 211 rzeczywistych użytkowników i 90% zasięgu (wg badań Mega Panelu za lipiec 2011).

 

Na 10 urodziny firma Google przygotowała stronę: http://www.google.pl/tenthbirthday/

W tym roku pod adresem http://www.google.pl/thirteenthbirthday/

nic nie znajdziemy. A dokładnie stronę informującą o błędzie 404.

No cóż. Doodle’owa grafika musi wystarczyć :)

 

Skoro mamy urodziny, to warto też rzucić okiem na to jak działa i jak się wyszukiwarka rozwijała do tej pory. Oto dwie ciekawe infografiki:

 

Jak się rozwijał algorytm Google’a:

Źródło: http://www.seobook.com

Jak działa Google?

Ppcblog.com opublikował parę tygodni temu infografikę ilustrującą sposób funkcjonowania Google. Autorzy szczegółowo rozrysowali schemat działania algorytmu Google. Trzeba oczywiście pamiętać, że nie jest to w 100% odwzorowany mechanizm. tego typu sekrety są pilnie strzeżone ;)

Źródło: http://www.ppcblog.com

 

Na koniec również dołączam się do życzeń. Jeszcze lepszych wyników wyszukiwania, elmininacji spamu z Serpów, użytecznych darmowych narzędzi  i stałego rozwoju!

google, pozycjonowanie , ,

Google Panda w Polsce – czym się objawia i jak się bronić

September 8th, 2011

Wielu SEMitów i SEOwców (czyli pozycjonerów, analityków webowych) w tym roku zadrżało na wieść wprowadzenia przez Google zmian w algorytmie wyszukiwarki, nazwanym Panda. Zmiany w algorytmie były nieuniknione, miały wyeliminować z indeksu śmieciowe strony. Prędzej czy później Google wzięłoby się za strony www kradnące treść, lub strony nie będące wartościowe dla użytkowników. Moim zdaniem dobrze. Ukłon dla jasnej strony mocy i białych kapeluszy.

Panda w Polsce, czyli miś zaczął wpier***ać ruch.

Już na wiosnę pozycjonerzy zaobserwowali spadki w ruchu z długiego ogona oraz spadek w ilości zaindeksowanych stron. Pisał o tym Piotr w marcu,  użytkownik PIO o nicku Pandha na swoim blogu.  O pandzie i jak się przed nią ustrzec pisał Paweł w czerwcu. Osobiście myślę, że to nie była Panda, a inne działania pozycjonerów, bo na dobre zmiany w algorytmie zostały wprowadzone w sierpniu, dokładnie z datą 12 sierpnia pojawił się wpis na oficjalnym blogu Google Polska i cała lawina artykułów m.in. na sprawnym, na blogach osób pozycjonujących strony i liczących się w branży: Marty, Miłosza, Michała, Sławka czy Pawła.

 

Czym się objawia łakomy miś?

Na pewno spadkiem odwiedzin. Poniżej kilka zrzutów ze statystyk, czyli jak Pandę rozpoznać.

 

Panda na obrazkach przedstawia się następująco:

Zrzut nr 1: Wszystkie odwiedziny (jak widać znaczny spadek ruchu od 12 sierpnia)

Zrzut nr 2: Wszystkie odwiedziny z wyszukiwarek

Zrzut nr 3: Wszystkie odwiedziny Google

Zrzut nr 4: Wszystkie odwiedziny z wyszukiwarki Bing – jak widać z tej wyszukiwarki nie ma spadków, nawet dla okresu od 12 sierpnia był lekki wzrost

Zrzut nr 5: Wszystkie odwiedziny z witryn odsyłających – bez wejść z Google (z zastosowaniem segmentu zaawansowanego)

Zrzut nr 6: Segment zaawansowany – wejścia bez wejść z wyszukiwarki Google.

Statystyki pochodzą z jednej stron,  której monitoring zlecono  mi ostatnio. Jak widać w statystykach, spore spadki (o 30%) od wprowadzenia Pandy. Nasuwa się wniosek: z Google’m nie ma żartów.

Przekaz twórców wyszukiwarki i najnowszego algorytmu jest prosty: albo z nami walczysz i tracisz ruch, albo dostosujesz się posłusznie i nie ucierpisz.

Przyglądam się ze spokojem i obmyślam strategię jak pomóc klientowi odzyskać stracony ruch z Google. Najgorsze w tym wszystkim to, że kiedyś w serwisie w latach 2006-2009 były umieszczane treści przeklejane z innych serwisów. Odsiać te złe, przefiltrować, wydzielić od dobrych, ot taki to spory kawał ręcznej roboty przede mną. No chyba, że ktoś ma jakieś pomysły. Byłbym wdzięczny za podpowiedź.

 

Jak się bronić przed żarłocznym misiem?

“Panda to z natury spokojne i nieagresywne zwierze i tak też wpłynęła na moje pozycje”

Napisała autorka jednego z komentarzy na blogu Marty i trudno się z tym nie zgodzić. Dla tych, którzy mają zadbane strony niegroźna jest Panda, dla cwaniaków i kombinatorów może już nie być tak łaskawa ;)

 

Najlepszym sposobem będzie zastosowanie w kodzie strony tagu*:

<meta name=”panda” content=”unique” />

który to Google wprowadziło dla testu, na okres przejściowy.

Poza tym na pewno wśród działań zapobiegawczych znajdą się:

  • stałe monitorowanie strony (najlepiej zlecić to firmom pozycjonującym lub freelancerom: pozycjonerom i analitykom webowym)

jeśli chodzi o wewnętrzne pozycjonowanie, to na pewno:

  • przede wszystkim porządek, tj. dbanie o treść – tak by była najbardziej wartościowa dla użytkownika  i przede wszystkim unikalna,
  • nie powielanie treści z internetu (tym bardziej kradzież przez RSS nie wchodzi w grę),
  • dbanie o zero duplikatów swojego contentu w Internecie,
  • stosowanie rel=”canonical”, o którym pisał ostatnio Piotr,
  • stosowanie starych sprawdzonych zaleceń WhiteSeo, czyli wytycznych Google dla Webmasterów.

a w przypadku zewnętrznego pozycjonowania:

  • dbanie o dobre linki – a więc selekcja, dokładna analiza stron, na których chcemy wymienić się linkami, lub je zakupić,
  • dobrze przemyślana strategia pozyskiwania linków (zamiast kupna na serwisach typu Allegro miejsca w wątpliwych serwisach i umieszczanie linków gdzie popadnie lub korzystanie z wątpliwych usług pozycjonerów, co stosują automaty, swl’e i inne maszynki z rumakami włącznie).

Więcej można też poczytać na ten temat na paru blogach firm pozycjonujących.

 

Cóż. Pozostaje monitorować sytuację i konsekwentnie stosować powyższe punkty. A Wy jak sobie radzicie z Pandą?

* oczywiście tag <meta name=”panda” content=”unique” /> nie istnieje, ale ciekaw jestem ile osób się nabierze ;)

google, optymalizacja, pozycjonowanie , , , ,

Czerwcowa aktualizacja PageRank

July 2nd, 2011

Parę dni temu, a dokładnie 28 czerwca miała miejsce aktualizacja wskaźnika Page Rank. Kolejna zmiana odnotowana już w tym roku. Strony, które obserwuję w większości utrzymały wartość wskaźnika, część wzrosła w rankingu, kilka spadło. Tak więc standardowo jak przy każdym update PR.

Dla przypomnienia, trochę teorii ;)

Co to jest PageRank?

PageRank to jeden z wielu wskaźników, który jest brany przez Google pod uwagę w rankingu stron w wynikach wyszukiwania. Wskaźnik ten określa jakość danej strony w skali od 1 do 10, na podstawie mocy przekazywanej z wielu innych stron linkujących do tej strony.

Na chwile obecną to co prezentuje i aktualizuje Google ma znaczenie tylko dla pseudo „pozycjonerów” z Allegro sprzedających linki, a sam PR nie ma już bezpośredniego wpływu na pozycje witryny w rankingu! Era PR dobiegła końca i utwierdza nas w tym przekonaniu każdy kolejny update (akutalizacja) Google. Jedyny problem to przywiązanie emocjonalne webmasterów do tego zielonego wskaźnika.

 

Page Rank - algorytm

Źródło: http://wikimedia.org

No właśnie. Lepiej linkować ze stron z większym PR niż słabszy, ale to też nie reguła, bo jak wiemy strona stronie nie równa. A każda jak wiadomo ma swoją moc, której może przekazać mniej w przypadku większej ilości linków zewnętrznych, no i wygenerować inny ruch. Tak więc przy pozyskiwaniu linków warto także wziąć pod uwagę np. LinkStrenght, SeoScore czy wskaźnik Woorank.

 

Aktualizacja PagRank z 28 czerwca 2011.

Wracając do głównego tematu notki, to z moich obserwacji wynika, że większość stron, które pozycjonuję lub monitoruję pozostała bez zmian jeśli chodzi o wartość wskaźnik PR, lub wzrosła (parę wzrostów z PR 1 do PR3). Jedna ze stron nawet wskoczyła z PR1 na PR5.

Jednak co bardzo istotne, w SERPACH pozycje stron nie uległy drastycznym zmianom, a jeśli uległy nie były to drastyczne zmiany, jedynie skoki w dół lub w górę o 1-3 pozycje. Co utwierdza mnie w przekonaniu, że PageRank nie wpływa jednoznacznie  na pozycję stron, a jest jedynie jednym z wielu (około 200) wskaźników branych pod uwagę w rankingu wyszukiwarki Google, o któryś swego czasu pisała An Smarty.

Potwierdzają zresztą to poniższe wykresy. Pierwszy uwzględniający zmianę PageRank i pozycji w wybranym okresie czasu

Jak widać nie ma tu drastycznych zmian.

Lekki spadek pozycji raczej w tym przypadku spowodowany jest utratą mocy z linków zewnętrznych. Poniżej wykres uwzględniający ilość linków zwrotnych.

 

Co do katalogów, to owszem, zmiany w wartości PR wielu katalogów się zmieniły. Jak pisał Sławek u siebie na blogu:

Ten PR update był wyjątkowo brutalny dla katalogów. Wygląda na to, że Google wzięło się za katalogi, uznając wiele z nich za mało wartościowe. Zmiany PR w dół odnotowało, aż 150 z 245 katalogów! Kilkanaście katalogów z pr4 i pr5 poleciało nawet do PR0. Można sobie tylko wyobrazić jak zrzedły miny właścicieli płatnych katalogów, gdy zobaczyli te zmiany. W wielu przypadkach takie zmiany PR będą miały wpływ na ceny wpisów w katalogach co przełoży się na ich zarobki.

245 katalogów zebranych przez Sławka, to jedynie wycinek z bazy katalogów, zawierającej ponad 14 tysięcy katalogów. Myślę, że do insynuowania wniosków typu “katalogi stron straciły na wartości” jeszcze droga daleka, gdyż należałoby do badania wziąć większą liczbę katalogów.

Z kolei z moich obserwacji wynika, że katalogi, które monitoruję (z czołowych pozycji na frazy: katalog stron, moderowany katalog stron) sytuacja wygląda następująco:

  1. 1miejsce.com.pl – wzrost z PR0 do PR2
  2. indexer.pl – spadek z PR4 do PR3
  3. katalog-stron.org – spadek z PR2 do PR0
  4. linkman.pl  – bez zmian, PR4
  5. webkat.com.pl – wzrost z PR0 do PR4
  6. www.gwiazdor.pl – spadek z PR6 do PR5
  7. www.innowacyjny.com.pl – wzrost z PR2 do PR3
  8. www.katalog.bajery.pl – spadek z PR5 do PR4
  9. www.katalog.web-tools.pl  – bez zmian, PR5
  10. www.katalogstron.com.pl – wzrost z PR4 do PR5
  11. www.katalok.pl – spadek z PR5 do PR4
  12. www.kulk.pl – spadek z PR5 do PR3
  13. www.phie.org -  spadek z PR5 do PR0
  14. www.rejestracjastron.pl  – bez zmian, PR4
  15. www.seoki.pl – wzrost z PR0 do PR3
  16. www.szukarka.net  – bez zmian, PR3
  17. www.webwweb.pl -  bez zmian, PR5
  18. www.zgred.pl -  bez zmian, PR4

 

Czyli na 18 katalogów było:

  • 7 spadków,
  • 5 wzrostów,
  • 6 pozostało bez zmian.

 

To z kolei mniejszy wycinek, ale pokazuje, że wcale tak tragicznie nie jest i jest to trochę inny rozkład procentowy. Niemniej jednak należy się temu bacznie przyglądać i prowadzić ciągłą obserwacje i analizy katalogów, zaplecza i stron konkurencji.

google, pozycjonowanie , , , , ,

Konkurs SEO 2011 zakończony

April 11th, 2011

21 grudnia na forum PIO pojawiła się informacja o konkursie dla pozycjonerów pt.: „Master of seo 2011″. Organizatorami konkursu było 3 użytkowników forum it_management, zgred i lukas. Konkurs polegał na tym, aby od 4 stycznia, do 4 kwietnia wypozycjonować nową domenę na frazę „wpolscemamymocneseo” i osiągnąć najwyższe, pierwsze miejsce dokładnie 4 kwietnia o godzinie 0:00. Nagrodą w konkursie był iPad 64GB WiFi 3G + bezpłatny wstęp na szkolenie organizowane w Warszawie. Fraza została wybrana tak, aby nie kolidować ze stronami firm oraz osób prywatnych i na początku nie zwracała żadnych wyników, czyli zgodnie z wytycznymi Google dotyczącymi konkursów SEO.

Konkurs to dobry sposób na sprawdzenie i wykorzystenie posiadanej wiedzy w praktyce,  a dla wielu osób możliwość obserwacji inalizy jakich metod do ozycjonowania używają najlepsi pozycjonerzy w Polsce. W ciągu tych 3 miesięcy wielu pozycjonerów chcących zgarnąć Ipada oraz uzyskać tytuł najlepszego pozycjonera rozpoczęło działania i…
…można rzec, że zaspamowało wyszukiwarki przy okazji odsłoniając swoje zaplecze. Zwycięzcą okazał się Marcin Kleinert z firmy Bitec, który na forum PiO używa nikcu Red. Prestiż i przy okazji dobra reklama firmy, jeśli nie brać pod uwagę etyczności działań w nawiązaniu do wytycznych Google.

Konkurs się skończył więc zwycięzcy i pozycjonerowm, którzy zajęli czołowe pozycje oczywiście gratuluję. Pokazaliście klasę!

 

Analiza

A teraz czas na pewne obserwacje.
Dziś mamy wyników  ponad 9,5 mln na frazę “wpolscemamymocneseo”:

z czego tylko z samą frazą ponad 32000:

 

 

Przy okazji wiemy już że w grze uczestniczył cały arsenał systemów wymiany linków, xrumery, blasty i inne maszynki do pozyskiwania linków, z którymi Google walczy i nie jest im przychylne.

Właściciel serwisu, który zajął drugie miejce zdradził ile go kosztowało umieszczenie strony na drugiej pozycji. Jak możemy się dowiedzieć w w/w wpisie do linkowania strony wykorzystano:

  • 2400000 punktów seomatika w cenie ok 50zł za 100k punktów czyli 1200zł
  • 300000 punktów gotlinka w cenie 70zł x 100k czyli 210zł
  • 200000 punktów weblinka 100zł za 100k punktów = 200 zł
  • 50 000 statlinka standard
  • 500 statlinka GOLD
  • 30 000 linkme elite

Pokusiłem się o wstępną analizę przy pomocy kilku narzędzi (SeoQuake, Woorank, Seocheck, Linkvendor, Linkstore, SeoScore, Page Inlink Analyzer) paru stron biorących udział w konkursie.
Polecam zwłaszcza ten ostatni, czyli Page Inlink Analyzer, wyniki dla jednej ze stron są bardzo interesujące. Kto jakie ma zaplecze łatwo sprawdzić.

Poza tym w Stat4Seo obserwowałem przyrost backlinków dla kilku stron, które na początku konkursu znajdowały się w TOP10, kilka dodałem, które po przetasowaniach znalazły się w pierwszej dziesiątce w połowie lutego. Niestety nie wszystkich, ale dla paru, które były w pierwszej 10 i paru spoza, wykresy wyglądają ciekawie:

1. Dla strony w TOP2

2. Dla strony z TOP8 (dodałem dopiero w połowie lutego)

3. Top18

4.  TOP88 – Tu jedna ze stron, której właściciel doszedł do ok 1000 backlinków (i…  w pewnym momencie dał sobie spokój?)

5. W analizie popularności domeny (linkvendor) dostałem takie wyniki:

a więc LinkStrenght na średnim poziomie (widziałem strony z LS=160), ale też i masę (zwłaszcza na Allegro) z wskaźnikiem <1.

 

Podsumowanie

Jak widać nieśmiertelny PageRank nie stracił na wartości i wciąż ma znaczenie, podobnie jak ilość domen z różnych IP (i przy okazji stosunek ilości linków do ilości domen linkujących – co widać na powyższym zrzucie), podobnie jak szerokiej maści  SWL’e, a więc ILOŚĆ, nie JAKOŚĆ ma nadal duży wpływ w SEO. Dodatkowo jak widzimy na wykresach, to co słusznie twierdzi wielu pozycjonerów, liczy się stałe, systematycznie zdobywanie linków (nie tylko tematycznych). Jak widać 800-3000 linków dziennie wystarczy by w ciągu 3 miesięcy wypozycjonować stronę w konkursie. Nie są to dobre wieści dla osósb stosujących WhiteSeo, a dla wszystkich maniaków SWL’i sygnał, że Google (w Polsce) nadal nie radzi sobie z chronieniem jakości indeksu i nie opracował algorytmów, aby skutecznie walczyć z ciemną stroną mocy.

google, pozycjonowanie, swl , , ,

SWL’e pod kontrolą

November 21st, 2008

W poprzedniej notce pisałem m.in. o efekcie domina i spadku pozycji jednej z mych kluczowych stron. Po jednodniowym spadku pozycja wróciła i cieszy fakt utrzymującej się pierwszej pozycji w G. przez niemalże rok. Poza tym po staremu. Wzrosty, spadki, ale generalnie do przodu.

Ostatnio dostałem maila z ciekawym pytaniem od jednego z czytelników. Czy przypadkiem nie stworzyłem własnego SWL’a (system wymiany linków) i nie chciałbym go sprzedać. Niestety czasu brak, toteż i na głośno wypowiedzianym pomyśle pozostało.

Jak już jesteśmy w temacie SWL’i, o których jakiś czas temu pisałem tu i tu, to wspomnę, że mam do nich nadal dobre zdroworozsądkowe podejście (tzn. w paru mam konto, ale właściwie do testów i nie wiedzieć czemu przeczuwałem, że większe angażowanie może się źle skończyć  – nie tylko przez zdradzenie swoich działań, zaplecza, ale także spadek pozycji).

Ostatnio na temat tych systemów zaczęło się głośno.  Głośno za sprawą Kaspara Szymańskiego, który w swym wpisie na blogu Google przestrzega przed korzystaniem z SWL:

“Na polskim rynku jest kilka ofert dla webmasterów, którzy chcą na skróty zwiększyć widoczność swoich stron w indeksie Google, na przykład przez kupowanie i sprzedawanie linków lub przez SWLe. Takie metody ewidentnie wybiegają poza Porady Google dla Webmasterów, a korzystanie z SWLów może spowodować utratę reputacji strony.

(…)webmasterzy, którzy chcą promować swoją stronę w indeksie Google, nie powinni korzystać z takich podejrzanych metod”.

U Pajmona pojawił się wpis, pojawił się także u Lexy, u Piotra Cichosza i u Pawła Zinkiewicza. W  środowisku temat zachęcił do snucia bardzo ciekawych wniosków jak na blogu Marcina Duraja:

Czytając ten wpis na blogu Google cały czas zastanawiałem się nad tym, czy karanie w jakikolwiek sposób stron, które są linkowane nie jest fantastyczną metodą na pozbycie się konkurencji?

i oczywiście żywszej dyskusji w komentarzach.

W wielu kwestiach Marcin ma rację. Jak ktoś wyliczył zyski z reklam w Internecie w przyszłym roku mają wzrosnąć o 28%, a wielkie G. w dobie kryzysu finansowego na pewno nie chciałoby by działania konkurencji (firm seo i pozycjonerów) pokrzyżowało plany.

Jeszcze jeden fragment z wpisu Marcina, z którym się w pełni zgodzę przykuł moją uwagę:

Nie jestem zwolennikiem systemów i jeśli miałbym taką moc to bym sprawił by wyparowały, wtedy przynajmniej z branży znikłoby wiele Firm a samo pozycjonowanie przynosiłoby więcej satysfakcji.

Kończąc ten wpis wspomnianej satysfakcji z pozycji sobie i czytającym życzę:)

google, pozycjonowanie, swl , , , ,