Mity SEO…które martwią pozycjonerów, a nie powinny. Algorytmy wyszukiwarek internetowych owiane są ze zrozumiałych względów tajemnicą. Dlatego zasady pozycjonowania opierają się głównie na praktycznych doświadczeniach, testach i próbie ustalenia związków przyczynowo-skutkowych na zasadzie: jeśli umieściłem słowo kluczowe na początku tytułu i pozycja strony w wynikach wyszukiwania poprawiła się, to być może jest to ważny element optymalizacji SEO. Do tego dochodzi śledzenie doniesień osób z branży i czytanie między słowami oficjalnych komunikatów Google. Konieczność bazowania w mniejszym lub większym stopniu na domysłach powoduje powstawanie błędnych teorii, które odpowiednio często powtarzane stają się mitami SEO. Weryfikację reguł pozycjonowania wymuszają też ciągłe zmiany algorytmu wyszukiwania, które potrafią skuteczną metodę zmienić w stratę czasu, tak jak stało się to z tagiem meta keywords.

  1. Linki site-wide

    Link site-wide prowadzący do Twojej witryny nie stanowi problemu, dopóki nie pochodzi z jednoznacznie spamerskiego serwisu, który nie powinien w ogóle do Ciebie linkować. Kilkadziesiąt tysięcy linków przychodzących z jednego serwisu może pomóc, jeśli link site-wide został tam umieszczony w naturalny sposób.

  2. Negatywne SEO

    Nie należy przejmować się zbytnio spamerskimi linkami, którymi próbuje zaszkodzić Ci konkurencja (tzw. negatywne SEO). Jeśli sam pozyskiwałeś takie linki, to usuń je. Jeśli nie masz z nimi nic wspólnego, skup się na pozyskiwaniu dobrej jakości linków z naprawdę wartościowych źródeł oraz budowaniu wizerunku marki online. Takie działania pozwolą ochronić się przed spamerskimi linkami lepiej niż ręczne czyszczenie profilu linkowania. Usuwanie spamerskich linków może być konieczne, jeśli sam pozyskałeś je w przeszłości lub ktoś robił to na Twoje zlecenie i w konsekwencji witryna została ukarana przez wyszukiwarkę. Jeśli masz czyste sumienie, skup się na tworzeniu świetnego serwisu. Uwaga: popularne systemy wymiany linków posiadają mechanizm, który pozwala właścicielowi serwisu zablokować możliwość jego linkowania.

  3. Gęstość słów kluczowych

    Nie należy przejmować się nasyceniem strony słowami kluczowymi (ang. keyword density) – czy jest za niskie, a może za wysokie. Jeśli tekst jest tworzony naturalnie, to zagęszczenie słów kluczowych nie ma znaczenia. Słowo kluczowe może występować w tytule, opisie, nagłówku i tekście z nasyceniem 30, 40%, ale dopóki jest to naturalna, czytelna treść, można spać spokojnie. Niebezpieczna jest jedynie próba manipulowania algorytmem przez upychanie słów kluczowych (ang. keyword stuffing).

  4. Kradzież treści

    Kopiowanie i publikowanie treści z Twojej witryny w innych zakamarkach Internetu (w tzw. scraper sites) nie jest powodem do paniki, a może być powodem zadowolenia, że treści są warte powielenia. W większości przypadków teksty kopiowane są razem z linkami, w tym linkami do naszego serwisu. W takim przypadku warto upewnić się, że linki w treści prowadzące do podstron naszej witryny wykorzystują bezwzględne adresy URL. Pozwoli to na pozyskanie dodatkowych linków do naszego serwisu. Część agregatorów treści to projekty przydatne dla użytkowników, które mogą być źródłem wartościowego ruchu. W branży SEO pozytywnym przykładem jest Planeta-SEO.pl.

  5. Dane z Google Analytics

    Niektórzy martwią się, że po zainstalowaniu Google Analytics wyszukiwarka będzie miała dostęp do słabych wskaźników zaangażowania użytkowników – wysokiego współczynnika odrzuceń, krótkiego czasu spędzanego na stronach. Po pierwsze Google zadeklarowało, że zespoły Webspam i Search Quality nie mają bezpośredniego dostępu do danych z Google Analytics. Teoretycznie mogą widzieć, że użytkownik opuszcza stronę i wraca nieusatysfakcjonowany do wyników wyszukiwania. Ale tak naprawdę, jeśli serwis udziela trafnych odpowiedzi na proste pytania, to współczynniki zaangażowania będą niskie, mimo że strona doskonale spełniła swoje zadanie. Dlatego nie należy się tym zbytnio martwić.

  6. Linkowanie wzajemne

    Czy linkowanie wzajemne może spowodować ukaranie witryny? Czy taki odwzajemniony link traci swoją wartość? Wzajemne linkowanie stało się spamerską taktyką w momencie, kiedy zaczęło służyć głównie pozyskiwaniu dodatkowych linków, i to w dość nienaturalny sposób. W serwisach tworzone były (i czasem są nadal) specjalne podstrony z linkami do naszych „znajomych”, którzy obowiązkowo linkują do nas. Często takie linki prowadzą do (lub przychodzą z) witryn zupełnie niepowiązanych tematycznie. Jednak samo linkowanie do strony, która linkuje do nas nie jest niczym negatywnym i nie oznacza, że takie linki tracą automatycznie wartość.

  7. Nieidealne teksty odnośników

    Co jeśli muszę zrezygnować z idealnego tekstu odnośnika, który jest nieatrakcyjny dla użytkowników? W rzeczywistości to odwrotna sytuacja może być powodem do niepokoju. Pojawiają się przypuszczenia, że dokładne dopasowanie tekstów odnośników może wzbudzać podejrzenia ze strony wyszukiwarki. Trzeba zadbać, żeby anchor tekst pasował do oczekiwań użytkowników, zawartości i po prostu miał sens. Zróżnicowanie tekstów odnośników to zjawisko naturalne.

  8. Linki w stopce witryny

    Czy linki w stopce mojego serwisu mogą mu zaszkodzić? Dużo mówi się o tym, że linki w stopce to zło. Jednak linki w stopce tworzone z myślą o użytkownikach nie są problemem. Problemem jest próba manipulowania wynikami wyszukiwania przez umieszczanie w stopce dużej liczby linków z dokładnie dopasowanymi tekstami odnośników. Prawdopodobnie Google nakłada algorytmicznie kary na serwisy stosujące takie rozwiązanie. Z kolei umieszczanie linków w stopce do zewnętrznych serwisów jest często wykorzystywane w systemach wymiany linków. Wykrycie takiego rozwiązania przez algorytm powinno być stosunkowo proste – mamy zestaw linków jeden obok drugiego, prowadzących na zewnątrz serwisu i wykorzystujących wartościowe słowa kluczowe. Należy unikać budowy stopki, która byłaby analogiczna do rozwiązań spamerskich.

  9. URL bez słowa kluczowego

    Czy adresy URL bez słów kluczowych stanowią przeszkodę w osiągnięciu dobrych pozycji w wynikach wyszukiwania? Nie jest to zbytni problem. Jeśli można zoptymalizować adresy URL tak, aby zawierały słowa kluczowe i były statyczne, to jest to dobre rozwiązanie i zalecana praktyka. Jednak brak słowa kluczowego w adresie URL nie przekreśla możliwości rankowania. Należy rozważyć czy reorganizacja adresów URL w całej witrynie opłaca się przy uwzględnieniu wymaganego nakładu pracy. O optymalizację adresów URL należy natomiast zadbać przy tworzeniu nowej witryny lub przebudowie już istniejącej.

  10. Linkbait i zarządzanie treścią

    Czy Google nie może ukarać za przyciąganie użytkowników i pozyskiwanie linków do witryny za pomocą filmów wideo, bloga, infografik, które są luźno związane z pozostałą częścią witryny? Nie, Google i Bing zadeklarowały wyraźnie, że doceniają taki sposób zarządzania treścią, nawet jeśli jest ona tylko częściowo powiązana z daną branżą. Jest to doskonały sposób budowania świadomości marki i przyciągania uwagi, pomocny w działaniach SEO. Linki przychodzące do podstron witryny wzmacniają ją jako całość, zwiększają autorytet domeny. Dzięki temu także pozostałe strony serwisu mogą zyskać w rankingu wyników wyszukiwania.

Na podstawie: 10 Myths That Scare SEOs But Shouldn’t