Porady dla webmasterów Matta CuttsaOd około ośmiu miesięcy w kanale YouTube Google Webmasters pojawiają się nowe filmy wideo z odpowiedziami Matta Cuttsa na pytania webmasterów. Na potrzeby serii Matt Cutts zakupił specjalny zestaw koszulek, aby nie było podejrzeń, że posiada tylko jeden T-shirt. Bogactwu kolorystyki koszulek towarzyszy także różnorodność poruszanych tematów. Dlatego postanowiliśmy podsumować opublikowane do tej pory wypowiedzi pracownika Google.

 

Spis treści
Najnowsze porady dla webmasterów
1. Wiele wyników wyszukiwania z tej samej domeny
2. Nad czym pracuje Google? Nadchodzące aktualizacje wyszukiwarki.
3. Stosowanie nagłówka HTTP Vary: User-Agent
4. Koszulki Matta Cuttsa
5. Przyznane patenty a rzeczywisty algorytm wyszukiwarki
6. Największe błędy SEO popełniane przez webmasterów
7. Czy linkowanie między własnymi witrynami narusza wytyczne Google?
8. Usuwanie z wyników wyszukiwania bezwartościowych stron typu „brak wyników”
9. Jednorazowe dodawanie tysięcy podstron w witrynie
10. Wielokrotne linki wewnętrzne z tym samym tekstem odnośnika a ranking
11. Kupowanie zaspamowanej domeny
12. Czy reputacja firmy hostingowej może wpłynąć na pozycje serwisu w wynikach wyszukiwania?
13. Fluktuacje pozycji nowej strony
14. Jak duża firma powinna konkurować online?
15. Czy kara nałożona na serwis sprzedający linki jest przenoszona na witrynę z niego linkowaną?
16. Dlaczego strona, do której prowadzą złe linki może rankować wysoko?
17. Wyszukiwarka Google za 10 lat
18. Blokowanie dostępu robotów do plików JavaScript
19. Jak przywrócić pozycje w wynikach wyszukiwania po tymczasowej niedostępności serwisu?
20. Zastępowanie tekstu obrazkami
21. Przypadkowe potraktowanie linków jako sprzedanych
22. Witryny składające się z jednej podstrony
23. Weryfikacja witryny w GWT dodanie metatagu w sekcji <body>
24. Nawigacja AJAX – pushState czy hashbang (#!)?
25. Blogger a WordPress – co lepsze dla SEO?
26. Zestaw wytycznych kontra samowolka zespołu Webspam Team
27. Autouzupełnianie formularzy i atrybut autocompletetype
28. PageRank tracony w wyniku przekierowań 301
29. Upychanie numerów telefonów na stronach
30. Rodzaje powiadomień o spamie w Narzędziach dla webmasterów Google
31. Flaga „Ważne” w poczcie Gmail
32. Referer spam
33. Wskazówki dla serwisów newsowych
34. Matt Cutts i dinozaury
35. Świąteczne wskazówki
36. Negatywne pozycjonowanie
37. Największe zaskoczenie w roku 2012
38. Jak pisać prośby o ponowne rozpatrzenie zgłoszenia witryny?
39. Przewaga przekierowań 301 nad rel=”canonical”
40. Unikalna zawartość podstron w dużym sklepie internetowym
41. Zespoły Google Webspam Team poza USA
42. Szacunkowa liczba wyników wyszukiwania dla zapytania
43. Liczba powiadomień o nienaturalnych linkach wysyłanych przez Google
44. Rozpoznawanie synonimów przez Google
45. Różnica między kupowaniem linków a linkami reklamowymi
46. Błędy dostępu do pliku robots.txt
47. Własny blog a praktyczna wiedza SEO
48. Search Engine Optimization vs. Search Experience Optimization
49. Czas odpowiedzi na prośbę o ponowne rozpatrzenie zgłoszenia witryny
50. Parametry powodujące duplikowanie adresów URL
51. Jak Google postrzega linki site-wide
52. Wpisy „gościnne”
53. Parkowanie domeny do momentu uruchomienia w niej witryny
54. Dlaczego Google rezygnuje ze swoich produktów
55. Pobieranie adresu HTTPS narzędziem „Pobierz jako Google”
56. Subdomeny czy podkatalogi
57. Ręczna ocena stron a aktualizacja Panda
58. Faworyzowanie klientów AdWords w naturalnych wynikach wyszukiwania
59. Jak obsługiwane są prośby o ponowne rozpatrzenie zgłoszenia witryny
60. Dlaczego Google nie udostępnia webmasterom bardziej szczegółowych informacji SEO
61. Cytowanie źródeł a powielanie treści
62. Analizować swoje linkowanie czy nie analizować
63. Linki z widżetów i stopek
64. Wykluczanie linków
65. Wpływ znaczników schema.org na wyniki wyszukiwania
66. Wpisy gościnne jako źródło linków
67. Znaczenie świeżości stron w algorytmie wyszukiwarki

1. Wiele wyników wyszukiwania z tej samej domeny

Odtwórz wideo

Pierwotnie wyszukiwarka Google nie nakładała żadnych restrykcji co do liczby wyników wyszukiwania pochodzących z tej samej domeny.

Następnie wprowadzono mechanizm grupowania hostów, który powodował, że dla każdej nazwy hosta (subdomeny) zwracanych było maksymalnie 2 wyniki. Spamerzy obeszli do rozwiązanie wykorzystując wiele subdomen do zapychania wyników wyszukiwania.

Google zmodyfikowało mechanizm grupowania domen w ten sposób, że każdy kolejny wynik wyszukiwania pochodzący z tej samej domeny musi spełnić co raz większe wymagania, aby rankować. Kilka wyników wyszukiwania z jednej domeny może pojawić się w przypadku, kiedy są to naprawdę dobre wyniki.

Kolejna zmiana polegała na tym, że Google zwraca większą uwagę na dywersyfikację rezultatów na pierwszej stronie wyników wyszukiwania niż na kolejnych stronach.

Przygotowana jest także kolejna aktualizacja, która powinna zostać niedługo wprowadzona. Jeżeli użytkownikowi zostanie wyświetlony klaster wyników z jednej domeny (np. 4 wyniki z tej samej domeny) i użytkownik przejdzie do kolejnych stron wyników wyszukiwania, to wyszukiwarka nie pokaże kolejnych stron z tej domeny.

2. Nad czym pracuje Google? Nadchodzące aktualizacje wyszukiwarki.

Odtwórz wideo

Lato 2013 zapowiada się bardzo gorąco w zespole Google Webspam Team.

Aktualizacja Pingwin 2.0

Google przygotowuje się do wdrożenia kolejnej wersji aktualizacji Pingwin, wewnętrznie oznaczonej jako Pingwin 2.0. Aktualizacja bierze na celownik balckhat webspam i jest trochę bardziej kompleksowa od wersji 1.0. Penguin 2.0 ma pójść nieco dalej i mieć większy wpływ na ranking niż pierwsza wersja.

Advertorials – linki przekazujące PageRank

Google kładzie nacisk na tzw. advertoriale – materiały reklamowe z linkami, które naruszają wytyczne jakościowe Google. Takie linki nie powinny przekazywać wartości PageRank. Wszystko jest w porządku dopóki linki nie przekazują PageRank i występuje jasna i widoczna informacja o reklamowym charakterze treści.

Zaspamowane zapytania zgłaszane przez użytkowników

Zespół Google ds. walki z webspamem reaguje na opinie spoza Google i skargi dotyczące wyników dla konkretnych typów wyszukiwań. Stopniowo oczyszczane są wyniki wyszukiwania w obszarach, które tradycyjnie były trochę bardziej zaspamowane.

Obniżenie efektywności sieci linków

Google szuka sposobu na zmniejszenia efektywności działań polegających na spamowaniu linków.

Nowy system analizy linków

Google rozpoczęło pracuje nad całkiem nowym systemem, wykonywującym bardziej wyrafinowaną analizę linków.

Pomoc zhakowanym serwisom

Kontynuowane są działania dotyczące zhakowanych serwisów. Celem jest skuteczniejsze wykrywanie i usprawnienie komunikacji się z webmasterami, aby pomóc im w rozwiązywaniu problemów.

Znaczenie autorytetów

Google pracuje nad różnymi sposobami pomagania zwykłym webmasterom. Polega to między innymi na wykrywaniu autorytetów w danym obszarze i próbowaniu umieszczania ich wyżej w rankingu wyników wyszukiwania.

Poluzowanie uścisku Pandy

Poszukiwane są dodatkowe czynniki jakości dla Pandy, które pozwolą na zmniejszenie jej wpływu na serwisy znajdujące się na granicy łamania wytycznych.

Klastry wyników wyszukiwania z jednej domeny

Użytkownicy uskarżają się, że przy przechodzeniu na kolejne strony wyników wyszukiwania widzą duże grupy stron z tej samej domeny. Google usprawniło mechanizm grupowania domen w wynikach wyszukiwania, kładąc nacisk na dywersyfikację wyników wyszukiwania na pierwszej stronie.

Poza tym planowane jest wprowadzenie aktualizacji, która ma działać w następujący sposób: jeżeli użytkownikowi zostanie wyświetlona grupa wyników z jednej domeny i przejdzie on do kolejnych stron wyników wyszukiwania, to wyszukiwarka nie pokaże kolejnych wyników z tej domeny.

Komunikacja z webmasterami

Rozważane są różne sposoby dostarczania informacji do webmasterów dotyczących: zhakowanych witryn i sposobów ich naprawy, bardziej konkretnych szczegółów, więcej przykładowych adresów URL pomagających w diagnozie problemu.

3. Stosowanie nagłówka HTTP Vary: User-Agent

Odtwórz wideo

Użytkownik zastanawia się nad zasadnością rekomendowanego przez Google stosowania nagłówków HTTP Vary: User-Agent w przypadku określonych witryn mobilnych. Duże sieci CDN, takie jak Akamai, deklarują, że nie cache’ują URLi z takim nagłówkiem.

Nagłówek Vary:User-Agent pozwala cache’ować różne wersje zawartości serwowanej przez adres URL, która różni się w zależności od User Agenta przeglądarki, np. jest inna dla komputera i inna dla urządzeń mobilnych.

Podejście Akamai jest zrozumiałe, ponieważ występuje bardzo wiele różnych User Agentów. Respektowanie nagłówka HTTP Vary: User Agent wymaga przechowywania wielu wersji strony, co mogłoby powodować serwowanie błędnej zawartości oraz wykorzystanie zbyt dużej przestrzeni dyskowej.

Zalecane jest wykorzystywanie nagłówka HTTP Vary, ponieważ nadal niesie za sobą wiele korzyści, takich jak cache’owanie po stronie serwera, cache’owanie przez dostawcę internetowego (ISP), itd.

Nagłówek Vary:User-Agent jest także wykorzystywany przez wyszukiwarkę Google, jako element pomagający w sprawdzeniu czy strona serwuje różne rodzaje zawartości – desktopową i mobilną.

Ciekawostka: W tle słychać reakcję Googlersów na gol w meczu Barcelona – Bayern.

4. Koszulki Matta Cuttsa

Odtwórz wideo

Matt opowiada po krótce o swoich koszulkach i nadwadze ;-)

5. Przyznane patenty a rzeczywisty algorytm wyszukiwarki

Odtwórz wideo

To, że Google posiada jakiś patent, nie oznacza, że wykorzystuje obecnie opisane w nim rozwiązania. Patenty opisują jednak interesujące technologie, które MOGĄ być wykorzystywane przez wyszukiwarkę Google.

Polecamy blog SEO by the Sea, na którym Bill Slawski analizuje patenty przyznane wyszukiwarkom.

6. Największe błędy SEO popełniane przez webmasterów

Odtwórz wideo

Należy zwrócić uwagę na kilka podstawowych zagadnień:

1. Podstawą jest posiadanie własnego serwisu internetowego. Obecnie nadal wiele firm nie ma własnej domeny. Poza tym witryna internetowa musi być dostępna dla wyszukiwarek internetowych.

2. W witrynie internetowej należy umieścić odpowiednie (wpisywane w zapytaniach) słowa i zwroty oraz informacje poszukiwane przez użytkowników (np. godziny pracy czy menu oferowane przez restaurację).

3. Zamiast skupiać się na zawężonej strategii pozyskiwaniu linków, należy myśleć szerzej o atrakcyjnej zawartości i jej promowaniu (marketingu).

4. Tytuły i opisy najważniejszych podstron powinny być dobrze przemyślane, ponieważ są wykorzystywane do generowania wizytówki w wynikach wyszukiwania. Eksperymentowanie z różnymi wersjami opisów pozwala zwiększyć CTR w wynikach wyszukiwania.

5. Warto korzystać z zasobów udostępnianych webmasterom przez Google (Narzędzia dla webmasterów, kanał YouTube dla webmasterów, forum) oraz narzędzi oferowanych przez inne wyszukiwarki, takich jak analiza linków w wyszukiwarce Blekko.

7. Czy linkowanie między własnymi witrynami narusza wytyczne Google?

Odtwórz wideo

Linkowanie pomiędzy kilkoma własnymi witrynami internetowymi, które są powiązane tematycznie, nie jest naruszeniem wytycznych dla webmasterów.

Problem pojawia się, kiedy jesteś właścicielem 50, 80, czy 150 serwisów internetowych o podobnej tematyce. Kiedy wszystkie będą linkowały miedzy sobą, zacznie to wyglądać na działanie nienaturalne. Często posiadanie dużej liczby witryn o bardzo zbliżonej tematyce skutkuje ich powierzchowną, pobieżną treścią niskiej jakości.

8. Usuwanie z wyników wyszukiwania bezwartościowych stron typu „brak wyników”

Odtwórz wideo

Wyszukiwarka Google algorytmicznie zwraca uwagę na wartość dodaną na stronie internetowej. Czasami użytkownicy mogą jednak trafiać na strony typu „0 znalezionych opinii”. W takiej sytuacji można poinformować , wysyłając spam raport, lub opisując problem na forum Google.

9. Jednorazowe dodawanie tysięcy podstron w witrynie

Odtwórz wideo

Firma prowadząca czasopismo zamierza dodać archiwum zajmujące 200 000 podstron. Czy tę czynność można wykonać jednorazowo, czy należy ją podzielić na etapy?

Google powinno być w stanie przetworzyć taką liczbę stron, ale kiedy wyszukiwarka wykryje nagłe pojawienie się w wynikach wyszukiwania dużej liczby podstron serwisu, może to spowodować ręczną analizę witryny przez zespół ds. walki z webspamem.

Jeśli ze strony serwisu rozłożenie w czasie nie ma większego znaczenia, to lepiej rozłożyć dodawanie podstron w czasie. Jednorazowo mogą być dodawane duże liczby podstron, chodzi tylko o częściowe podzielenie całego zestawu.

10. Wielokrotne linki wewnętrzne z tym samym tekstem odnośnika a ranking

Odtwórz wideo

Czy linki wewnętrzne z dokładnie dopasowanym tekstem odnośnika szkodzą witrynie? Czy za duża liczba linków wewnętrznych z takim samym tekstem odnośnika może zaszkodzić pozycji w wynikach wyszukiwania za sprawą aktualizacji Pingwin?

Zasadniczo nie, zwykle linki wewnętrzne nie są podstawą kłopotów witryny. Matt nie mówi kategorycznie „nie”, ponieważ zawsze może znaleźć się pojedyncza strona z 5 tysiącami linków o identycznych tekstach odnośników.

W przypadku normalnej witryny, kiedy takie linki umożliwiają użytkownikom nawigowanie po serwisie, można być spokojnym. Przez sam wzgląd na budowę szablonu, linkowanie wewnętrzne do danej podstrony linkami z takim samym tekstem odnośnika jest sytuacją normalną.

11. Kupowanie zaspamowanej domeny

Odtwórz wideo

Czy można kupić zaspamowaną domenę na rynku wtórnym i dobrze rankować w wynikach wyszukiwania? Jak zresetować pod względem SEO taką domenę?

Spam można podzielić na generowany ręcznie i algorytmicznie. W przypadku spamu ręcznego wyczyszczenie zawartości domeny i wysłanie prośby o ponowne rozpatrzenie zgłoszenia powinno teoretycznie przywrócić zaspamowaną domenę. W przypadku spamu algorytmicznego i mnóstwa spamerskich linków pozyskanych przez poprzedniego właściciela może być trudniej wyczyścić domenę z takich linków.

Jest wielu spamerów stosujących technikę „zburzyć i spalić”, którzy stosują wszystkie dostępne metody, aby ich domena rankowała w wynikach wyszukiwania. W momencie kiedy Google wyłapie zaspamowaną domenę, jest ona porzucana na rzecz kolejnej. Dlatego należy być bardzo ostrożnym przy zakupie takiej domeny, mimo że jej nazwa może wydawać się bardzo atrakcyjna. Zamiast startować od poziomu zero, można wpaść w dół wykopany przez poprzedniego właściciela.

Jest możliwe wyczyszczenie zaspamowanej domeny. Jednak po pierwsze należy dobrze udokumentować wszystkie podejmowane kroki, ponieważ Google podchodzi do takich domen z ostrożnością. Sam spamer może chcieć upozorować zmianę właściciela domeny, aby rozpocząć swoje spamerskie działania na nowo. Wydaje się, że lepiej wystartować z czystą, nową domeną, która nie jest obciążona złą reputacją, nie tylko w wyszukiwarkach, ale być może również w oczach użytkowników.

12. Czy reputacja firmy hostingowej może wpłynąć na pozycje serwisu w wynikach wyszukiwania?

Odtwórz wideo

Zazwyczaj nie. Na ogół firma hostingowa udostępnia wiele różnych materiałów, z których część może być dobra, a część zła. Może znaleźć się wśród nich jakiś spam. Samo posiadanie witryny na adresie IP lub korzystanie z hostingu, który hostuje także spam, nie oznacza, że powinno to mieć wpływ na Twój serwis.

Jednak było kilka przypadków firm hostingowych, gdzie na przykład na 27000 witryn ze spamem porno przypadały dwa normalne serwisy umieszczone na tym samym adresie IP. Podobna sytuacja może mieć miejsce w przypadku darmowego hostingu, który okazuje się przede wszystkim frontem działania spamerów. W takich bardzo rzadkich sytuacjach Google może podjąć działania w stosunku do całego hostingu.

13. Fluktuacje pozycji nowej strony

Odtwórz wideo

Jak wytłumaczyć to, że nowa strona docelowa z wartościową treścią pojawia się początkowo na stosunkowo dobrych pozycjach i po tygodniu nagle spada?

Wyszukiwarka musi upewnić się, że zwraca wyniki najlepszej jakości przy ograniczonej liczbie informacji na ten temat. Zebranie odpowiednich informacji wymaga pewnego czasu – godzin, dni lub tygodni.

Strona może rankować przez jakiś czas, lecz w miarę zbierania nowych danych pozycja ta jest aktualizowana, aż do osiągnięcia stanu pewnej stabilizacji.

Poza tym są zapytania, które wymagają świeżości (QDF – Query Deserves Freshness) i są takie, które najlepiej obsługiwane są przez zawartość, która istnieje w sieci od dłuższego czasu.

Dodatkowo wyniki różnią się w zależności od kraju, miasta i mogą zmieniać się w miarę upływu czasu. Nie tylko dlatego, że zmieniają się linki lub zawartość strony, ale również ze względu na bardziej precyzyjne określenie przez wyszukiwarkę, które strony są najbardziej trafne dla zapytania.

14. Jak duża firma powinna konkurować online?

Odtwórz wideo

Z jednej strony Internet jest fantastycznym miejscem umożliwiającym każdemu konkurowanie na równych zasadach gry. Internet pełni tu rolę niwelatora barier. Jeśli szybciej dostosowujesz się do oczekiwań klientów, możesz wygrywać z wieloma firmami, które są mniej elastyczne.

Wyniki wyszukiwania odzwierciedlają relacje w świecie online, a nie w świecie realnym. Mimo że prowadzisz dużą firmę, możesz posiadać kiepską witrynę internetową. Jest to dość częsta sytuacja. Trzeba w pierwszej kolejności upewnić się, że witryna firmowa działa dobrze, jest zoptymalizowana, dostępna na urządzeniach mobilnych, nie jest na przykład cała wykonana w technologii Flash, posiada dobrą nawigację, itd.

Twoja witryna firmowa powinna być użyteczna. Trzeba to sprawdzić, ponieważ Twoja subiektywna opinia może być błędna. Druga sprawa to znalezienie sposobów na zaangażowanie obecnych klientów, na przykład poprzez stworzenie listy mailingowej. Duża firma ma o wiele większe możliwości oferowania promocji, organizowania wydarzeń, ich sponsorowania.

Istnieje wiele przykładów witryn wielkich firm, które nie są wystarczająco dynamiczne i dostosowujące się do oczekiwań użytkowników, nie dostarczają informacji o odpowiednio wysokiej jakości. To, że ktoś posiada duży serwis nie oznacza, że automatycznie zasługuje na rankowanie w wynikach wyszukiwania.

15. Czy kara nałożona na serwis sprzedający linki jest przenoszona na witrynę z niego linkowaną?

Odtwórz wideo

Normalnie kiedy Google wykryje serwis, który sprzedaje linki, jego PageRank zostaje obniżony o 30, 40, 50%, jako widoczny wskaźnik obniżonego zaufania do tej domeny. Zwykle domena traci także możliwość przekazywania PageRank za pomocą linków wychodzących. Tracone jest zaufanie do linków wychodzących z serwisu oznaczonego jako sprzedający linki.

Jeżeli do Twojego serwisu prowadzi link z domeny oznaczonej jako sprzedająca linki, to najbardziej prawdopodobnym scenariuszem jest po prostu wyzerowanie wartości tego linku. Zwykle serwis linkowany z takiej domeny nie zostaje dotknięty karą w postaci degradacji w rankingu. Zwykle polega to na utracie PageRank, który był przekazywany przez link z domeny sprzedającej linki.

16. Dlaczego strona, do której prowadzą złe linki może rankować wysoko?

Odtwórz wideo

Może być wiele powodów takiej sytuacji. Pingwin jest ukierunkowany na różne, ale nie wszystkie rodzaje spamu (np. nie rozwiąże problemu ze stroną, która zdobyła pozycje w oparciu o nielegalne hakowanie witryn).

Najprostsza odpowiedź może być taka, że Google nie chce, żeby taka strona rankowała, ale algorytmy wyszukiwarki nie są jeszcze wystarczająco dobre. W ulepszaniu algorytmów pomagają spam raporty, czy informacje przekazywane na forum dla webmasterów.

Poza tym Google nie udostępnia informacji o wszystkich znalezionych linkach prowadzących do serwisu. Witryna może posiadać także linki z innych, bardziej wartościowych źródeł, które są podstawą jej wysokiej pozycji w rankingu.

Inną przyczyną może być sam charakter zapytania. Wyniki dla niektórych zapytań mogą bardziej opierać się na zawartości stron niż na linkach do nich prowadzących.

17. Wyszukiwarka Google za 10 lat

Odtwórz wideo

Matt spodziewa się, że Google może nie będzie odczuwająca i posiadająca sztuczną inteligencję, ale będzie daleko na drodze bycia pomocnym asystentem. Można sobie wyobrazić sytuację z wieloma urządzeniami wejściowymi – telefonem, okularami Google z rzeczywistością rozszerzoną (ang. augmented reality), wieloma czujnikami i wejściem głosowym. Teoretycznie może to być interfejs mózgu.

Obecnie wyszukiwarce kluczowej są dostarczane słowa kluczowe. W wyszukiwarce przyszłości powinno być dostępne pełne rozpoznawanie mowy, umiejętność rozpoznawania kontekstu, syntetyzowania informacji z różnych źródeł i obsługiwania różnej składni.

Wyszukiwarka przyszłości może dostarczać informacje których potrzebujesz, zanim pomyślisz aby o nie zapytać. Powinna je dostarczać w użyteczny i nienatrętny sposób.

Za dekadę okaże się jak dalece Google może rozwinąć swoją wyszukiwarkę.

18. Blokowanie dostępu robotów do plików JavaScript

Odtwórz wideo

Można zablokować wszystkie pliki JavaScript, ale jest to rozwiązanie stanowczo niezalecane. Jeśli istnieje jeden plik JavaScript, który jest źródłem problemów, można zablokować tylko ten jeden plik.

Możliwość pobierania, analizowania i wykonywania plików JavaScript pomaga wyszukiwarce Google w zrozumieniu budowy serwisu i odkrywaniu dodatkowych linków na stronie. Ogólnie nie należy blokować plików JavaScript i plików CSS.

Podczas wykonywania JavaScript Google zwraca uwagę na atrybuty, więc wykorzystując JS można na przykład poszczególnym adresom URL nadać atrybut nofollow.

19. Jak przywrócić pozycje w wynikach wyszukiwania po tymczasowej niedostępności serwisu?

Odtwórz wideo

Należy upewnić się, że została przywrócona kopia zapasowa serwisu w stanie sprzed awarii, a serwis posiada niezawodny uptime. Tak przywrócona witryna powinna stosunkowo szybko powrócić na swoje wcześniejsze pozycje.

Kiedy strona staje się niedostępna (np. zwraca błąd 404 lub przekroczony zostaje limit czasu oczekiwania), wyszukiwarka nie jest pewna czy została ona usunięta na stałe, czy za jakiś czas będzie znowu dostępna. Więc z jednej strony nie chce pokazywać takiego wyniku wyszukiwania ze względu na użytkowników. Z drugiej strony bardzo powszechnym zjawiskiem jest niedostępność serwisów przez kilka godzin czy dni, więc zasadne jest zrewidowanie po pewnym czasie tych stron i sprawdzenie czy są dostępne. Dlatego wyszukiwarka posiada określone limity czasu, kiedy powrót serwisu po okresowej niedostępności jest uznawany za błąd przejściowy.

20. Zastępowanie tekstu obrazkami

Odtwórz wideo

Autor pytania zauważył, że po usunięcie dużej części tekstu i zastąpieniu go obrazkami spadł współczynnik odrzuceń, a wzrósł czas odwiedzin i liczba konwersji.

Matt odpowiada, że Google nadal potrzebuje zawartości tekstowej. Istniej kilka rozwiązań, aby go dostarczyć w opisanym przypadku. Jeśli w witrynie jest umieszczony obrazek zawierający tekst, zawartość tekstową można zawrzeć w atrybucie alt czy tytule obrazka.

Poza tym Matt zauważa, że poprawa wskaźników zaangażowania może być związana z tym, że po zmianach witryna jest ładniejsza, ma lepszy design. Warto więc rozważyć wykorzystanie niestandardowych czcionek (np. Google Fonts), które będą jednocześnie atrakcyjne dla użytkowników i dostępne dla wyszukiwarek. Możliwe będzie ich swobodne zaznaczanie i kopiowanie.

21. Przypadkowe potraktowanie linków jako sprzedanych

Odtwórz wideo

Jeśli umieszczasz link do witryn wysokiej jakości, które uważasz za wartościowe, to tak właśnie działa sieć internetowa. W interesie Google jest zadbanie o to, żeby zapobiec przypadkowemu klasyfikowaniu linków jako płatnych i bezpodstawnemu karaniu witryn. Z reguły nawet jeśli linki zostaną sklasyfikowane jako płatne, to wyszukiwarka odbierze zaufanie (lub jego część) linkom wychodzącym, ale niekoniecznie obniży pozycje witryny w wynikach wyszukiwania.

Nałożenie kary może mieć miejsce w przypadku witryn, które sprzedają dużo linków, sprzedają je od dłuższego czasu, itd. Wtedy podejmowane są stanowcze działania.

22. Witryny składające się z jednej podstrony

Odtwórz wideo

Jak Google traktuje jednostronicowe witryny? Stają się one coraz bardziej popularne. Witryna składająca się z jednej strony (i dużej ilości CSS oraz JavaScript) może dostarczać te same doświadczenia użytkownika co standardowa witryna z wieloma podstronami.

Wyszukiwarka potrafi coraz lepiej przetwarzać kod JavaScript. Matt w pierwszej kolejności poleca wykonać test. Jeśli przebiegnie pomyślnie, nie powinno być większych problemów ze strony wyszukiwarki.

Jest to inne podejście do budowy witryn, które czasem może skutkować lepszymi konwersjami, czasami nie. Zależy to od obszaru działalności, tematyki, layoutu. Jeśli rozwiązanie jest dobrze odbierane przez użytkowników, to w większości przypadków powinno także działać poprawnie w wyszukiwarce Google.

23. Weryfikacja witryny w GWT dodanie metatagu w sekcji <body>

Odtwórz wideo

Pytający martwi się, że ktoś może „wstrzyknąć” metatagi w ciało strony (sekcję <body>), w tym metatag pozwalający na weryfikację witryny w Narzędziach dla webmasterów Google.

Wyszukiwarka Google sprawdza występowanie metatagu weryfikacyjnego tylko w sekcji <head>. Umieszczenie metatagu w sekcji <body> nie umożliwia weryfikacji w GWT.

24. Nawigacja AJAX – pushState czy hashbang (#!)?

Odtwórz wideo

Czy w nawigacji AJAX należy stosować pushState zamiast znaków hashbang (#!)? Google może obsłużyć oba rozwiązania, więc oba są poprawne.

Jeśli to możliwe, warto wykorzystywać pushState, ponieważ rozwiązanie to zazwyczaj nie wymaga od robotów wyszukiwarek dodatkowych czynności, jak w przypadku rozwiązania #!.

25. Blogger a WordPress – co lepsze dla SEO?

Odtwórz wideo

Blogger jest łatwiejszy dla początkujących – jest bardzo prosty w obsłudze i działa w chmurze, więc nie trzeba martwić się możliwością zhakowania i koniecznością instalowania aktualizacji.

WordPress wymaga na początku więcej pracy, ponieważ pozwala na samodzielną konfigurację. Jest bardzo elastyczny, można go dostosować do swoich indywidualnych potrzeb i ma większe możliwości.

Obie platformy mają swoje plusy i minusy. Obie mogą być skuteczne z punktu widzenia SEO, jeśli blog publikuje wartościowe treści i posiada dobre linki przychodzące.

Ciekawostka: Matt Cutts pracuje dla Google, które udostępnia platformę Blogger, a swojego bloga prowadzi na WordPressie.

26. Zestaw wytycznych kontra samowolka zespołu Webspam Team

Odtwórz wideo

Po pierwsze zespół ds. walki ze spamem internetowym nie podejmuje działań z powodu krytycznego stanowiska podmiotu wobec Google, zgodnie z maksymą: nie zgadzam się z Twoimi poglądami, ale po kres moich dni będę bronił Twego prawa do ich głoszenia.

Zespół kieruje się jasnymi wytycznymi opisującymi różne rodzaje spamu internetowego. Pracownicy przechodzą szkolenia, uczą się jak interpretować wytyczne, a na samym początku pracują pod okiem bardziej doświadczonych osób. Wszystko to ma sprawiać, żeby działania całego zespołu były spójne, precyzyjne i uczciwe.

27. Autouzupełnianie formularzy i atrybut autocompletetype

Odtwórz wideo

Im prostsze jest uzupełnienie formularza internetowego, tym większe jest prawdopodobieństwo, że użytkownicy zechcą go wypełnić. Dlatego wysoce rekomendowane są ułatwienia związane z wypełnianiem formularzy.

Google Chrome zaproponowało standard nazwany autocompletetype. Rozwiązanie nie wpływa na elementy formularza, zmienne zostają takie same, a poprzez poprawne oznaczenie typu pola, użytkownicy mogą korzystać z opcji autouzupełniania formularzy przez przeglądarkę.

Implementacja rozwiązania jest bardzo prosta i pozwala na znaczne przyspieszenie uzupełniania formularzy przez użytkowników. Trudno znaleźć minusy tego rozwiązania, a chyba każdemu zdarzyło się zrezygnować ze skorzystania z serwisu po natrafieniu na wymagany formularz internetowy.

28. PageRank tracony w wyniku przekierowań 301

Odtwórz wideo

Odsetek wartości PageRank tracony w wyniku przekierowania 301 jest identyczny co odsetek wartości PageRank traconej za pośrednictwem linku. Można powiedzieć, że przekierowanie 301 przekazuje taką samą część PageRank co umieszczenie na stronie źródłowej jednego linku prowadzącego do strony docelowej. Ma to uciąć wszelkie spekulacje na temat tego co jest lepsze z punktu widzenia przekazywania PageRank – link czy przekierowanie 301.

Cyrus Shepard z SEOmoz dodaje, że skuteczność przekierowania może zależeć od zgodności tematycznej strony przekierowanej ze stroną docelową.

29. Upychanie numerów telefonów na stronach

Odtwórz wideo

W Internecie występują serwisy, które upychają w swojej treści wszystkie dostępne numery telefonów. Do Google dociera wiele związanych z tym skarg, dlatego podejmowane są działania mające na celu zwalczanie tego rodzaju spamu internetowego. Zasadniczo Google traktuje takie zjawisko jako upychanie słów kluczowych (keywords stuffing).

30. Rodzaje powiadomień o spamie w Narzędziach dla webmasterów Google

Odtwórz wideo

Za pośrednictwem Narzędzi dla webmasterów Google każdego miesiąca wysyłane są setki tysięcy powiadomień dotyczących spamu internetowego. Może wydawać się to dużą liczbą, ale według Blekko tylko w ciągu godziny powstaje około miliona spamerskich stron.

Jest wiele różnych kategorii spamu. Zostały one ujęte we wskazówkach Google dla webmasterów – od maskowania, przez kopiowanie treści, niejawne przekierowania, po kupno/sprzedaż linków.

Wszystkie te rodzaje spamu składają się na około 10 różnych typów wysyłanych wiadomości. Na przykład ukryty tekst, upychanie słów kluczowych, czy bełkotliwa treść są adresowane przez tę samą wiadomość w Google Webmaster Tools.

Ze wszystkich wiadomości wysłanych od początku roku (do około połowy lutego) 90% dotyczyło technik black hat, czyli czystego, rażącego spamu. Około 4% wiadomości zostało wysłanych ze względu na małą albo całkowity brak wartości dodanej. Około 3% wiadomości było związanych z hakowaniem. Około 2% wiadomości dotyczyło kupowania linków, a ok. 1% sprzedawania linków.

Podsumowując, około 2-3% wiadomości związanych ze spamem dotyczyło procederu kupowania/sprzedawania linków manipulujących algorytmem PageRank.

31. Flaga „Ważne” w poczcie Gmail

Odtwórz wideo

O oznaczaniu wiadomości w poczcie Gmail jako ważnych i mało ważnych oraz o korzystaniu ze skrótów klawiaturowych.

32. Referer spam

Odtwórz wideo

Dlaczego pewne wideo z YouTube jest wskazywane jako odsyłające do serwisu? Jest to spamerska technika określana jako „referer spam”.

Referer to nagłówek HTTP, który jest przesyłany, kiedy przeglądarka przechodzi z jednej strony do innej. Normalnie jest wykorzystywany do wskazania skąd przychodzi użytkownik.

Jednak referer może być dowolnie zmieniany, np. na stronę, którą chce się wypromować. Po ustawieniu takiego referera odwiedzane jest mnóstwo stron internetowych. Ich właściciele często widząc taki referer w narzędziu analitycznym, odwiedzają wskazany adres URL myśląc, że został tam umieszczony do nich link. Jest to spamerski sposób pozyskiwania ruchu, a czasem rozpowszechniania złośliwego oprogramowania.

Nie można automatycznie powiedzieć, że autorem referer spamu jest właściciel tak promowanej strony, ponieważ każdy może sobie ustawić dowolny referer. Dlatego najlepszym rozwiązaniem jest zignorowanie takiego fałszywego źródła odwiedzin.

33. Wskazówki dla serwisów newsowych

Odtwórz wideo

W przypadku przedstawiania aktualizowanych informacji na dany temat warto rozważyć aktualizowanie treści na stronie, zamiast tworzenia kolejnych podstron. Pozwala to na skumulowanie wartości PageRank, a użytkownicy nie są zdezorientowani kolejnymi adresami URL.

Marissa Mayer mówiła dawniej o posiadaniu żyjących tematów, które są wyczerpującymi wpisami na dany temat. Przykładem mogą być stale wzbogacane strony Wikipedii.

Poza tym warto wykorzystać potencjał usługi Google News. Inną możliwością jest wykorzystanie przypisywania autorstwa (Google Authorship), które pozwala wskazać, kto jest autorem konkretnego artykułu.

34. Matt Cutts i dinozaury

Odtwórz wideo

Matt Cutts nadrabia statystyki swoich filmów w kanale dla webmasterów. Tylko jedno wideo z Mattem jako dinozaurem? Jest następne :)

35. Świąteczne wskazówki

Odtwórz wideo

Świąteczne rady Matta Ho-Ho-Ho na temat bezpieczeństwa danych.

36. Negatywne pozycjonowanie

Odtwórz wideo

Od samego początku przy projektowaniu algorytmu wyszukiwarki oraz podejmowaniu ręcznych działań w zespole do walki z webspamem, Google musiało brać pod uwagę możliwość „wrobienia” serwisu przez konkurencję. Google stara się projektować algorytmy odporne na takie nieuczciwe działania.

Od kiedy Google kładzie większy nacisk na ocenę jakości linków oraz podejmuje działania dotyczące sieci linków, więcej osób zwraca uwagę na jakość swoich backlinków i możliwość ich czyszczenia. Większość webmasterów/właścicieli witryn nie musi martwić się tym zagadnieniem. Jest bardzo dużo osób, które mówi o negatywnym SEO, ale niewiele próbowało tej techniki, a jeszcze mniej odniosło na tym polu sukces.

Dla serwisów, które są faktycznie narażone na ataki ze strony konkurencji Google udostępniło narzędzie wykluczania linków (Disavow Tool), które pozwala wskazać wyszukiwarce Google, które linki prowadzące do serwisu powinny być ignorowane.

Zamiast negatywnego pozycjonowania lepiej zrobić coś produktywnego. Negatywne SEO może nie przynieść żadnych efektów. Pozyskanie dużej liczby linków do atakowanego serwisu może nawet przynieść efekt odwrotny i poprawić jego pozycję w rankingu.

37. Największe zaskoczenie w roku 2012

Odtwórz wideo

Dla Matta największym zaskoczeniem jest ciągle ogromna grupa osób, które dają się nabierać obietnicom natychmiastowego wstrzelenia strony na pierwszą pozycję. Matt oczekiwał, że w 2012 ludzie będą bardziej sceptycznie nastawieni do technik black hat SEO.

Tańsze, łatwiejsze i bardziej długotrwałe jest stosowanie technik white hat. Czasem, jeśli coś wydaje się zbyt piękne, żeby było prawdziwe, faktycznie jest zbyt piękne, aby było prawdziwe.

38. Jak pisać prośby o ponowne rozpatrzenie zgłoszenia witryny?

Odtwórz wideo

Pierwszym celem prośby o ponowne rozpatrzenie jest poinformowanie Google o zaprzestaniu naruszania wskazówek jakościowych, takich jak uczestnictwo w programach wymiany linków, maskowanie, kopiowanie treści, strony doorway. Trzeba jasno i przekonująco wskazać, że wcześniej występujące naruszenia zostały w miarę możliwości wyeliminowane (np. w przypadku kupowania linków należy wskazać, że zostały one usunięte na ile było to możliwe).

Drugim celem prośby jest wykazanie dobrych intencji, wskazujących, że spamerskie praktyki nie będą już wykorzystywane przyszłości. Najlepiej jest postawić się na miejscu Google i zastanowić co będzie najbardziej przekonywujące.

Do prośby warto dołączyć szczegółowe informacje, np. dotyczące grup witryn, z którymi kontaktowano się w celu usunięcia linków. Zawarcie jak największej liczby szczegółów ułatwia Google ocenę podjętych działań.

W prośbie o ponowne rozpatrzenie nie należy zamieszczać linków, których intencja może być podejrzana (nie wiadomo gdzie prowadzą). Wskazane jest zamieszczanie linków do dokumentów Google (np. z listą linków, które udało się usunąć).

39. Przewaga przekierowań 301 nad rel=”canonical”

Odtwórz wideo

Google sugeruje stosowanie linku rel=”canonical” w przypadku, kiedy nie można zastosować przekierowań 301.

Przekierowania 301 są powszechnie obsługiwane przez przeglądarki internetowe i różne wyszukiwarki internetowe. Zwykle przekierowania są stosowane w pojedynczych przypadkach, więc dodatkowy czas na obsłużenie operacji jest mało istotny. Poza tym w przypadku przeniesienia strony do nowej lokalizacji użytkownicy otrzymują odpowiednią informację w pasku adresu.

Dlatego przekierowania 301 są rekomendowane, chyba że ich konfiguracja jest niemożliwa. Wtedy można zastosować rel=”canonical”, aby wskazać kanoniczny adres URL.

40. Unikalna zawartość podstron w dużym sklepie internetowym

Odtwórz wideo

Pytanie nie powinno brzmieć: mam X podstron, jak sprawić żeby były niepowtarzalne. Należy zapytać się ile podstron wysokiej jakości, wartościowych dla użytkowników mogę stworzyć. Jeśli nie jesteś w stanie zarządzać tysiącem podstron, tak aby każda z nich posiadała unikalną zawartość, inną niż skopiowane opisy produktów, to dlaczego Twoje tysiąc podstron ma rankować wyżej niż tysiąc podstron z tą samą skopiowaną zawartością w innej witrynie?

Trzeba sobie zadać pytanie – co czyni moją witrynę wyjątkową w porównaniu z innymi sprzedającymi te same produkty, co jest wartością dodaną, co jest atrakcyjną propozycją, która sprawia, że użytkownicy chcą odwiedzić akurat ten sklep internetowy. Jeśli posiadasz unikalną zawartość, coś śmiesznego, coś co ułatwia korzystanie z witryny, itp., to jest to już konkretna propozycja dla użytkowników.

Celem nie jest posiadanie tysięcy podstron, a potem zastanawianie się jak nadać im jakąś wartość. Czasem lepiej najpierw zastanowić się ile wartości dodanej mogę stworzyć.

41. Zespoły Google Webspam Team poza USA

Odtwórz wideo

Google posiada zespół Webspam Team w Europie, a konkretnie w Dublinie. Zespół ten podejmuje działania walki ze spamem i obsługuje spam raporty w wielu językach. Google ma „swoich ludzi” w biurach na całym świecie, którzy znają lokalne rynki. Na przykład, jeśli występuje wyjątkowa technika spamowania linków w Polsce, to są również osoby, które się tym zajmują. Google chce być firmą międzynarodową, która radzi sobie ze wszystkimi językami.

42. Szacunkowa liczba wyników wyszukiwania dla zapytania

Odtwórz wideo

Liczba wyników wyszukiwania dla danego zapytania jest zwykle wyświetlana z dokładnością do 3 cyfr znaczących (tysiące). Są to więc liczby szacunkowe. W trakcie zwracania odpowiedzi na zapytanie w pewnym momencie wyszukiwarka „uznaje”, że ma wystarczającą ilość danych, żeby wyświetlić wyniki wyszukiwania i w tym momencie szacuje pozostałą ich liczbę. Przechodzenie do kolejnych stron wyników wyszukiwania oznacza dalsze zagłębianie się w te dane. Tym samym zmienia się też szacowana liczba wyników wyszukiwania. Zwykle po przejściu z pierwszej strony wyników wyszukiwania do drugiej strony szacowana liczba wyników jest bardziej dokładna.

43. Liczba powiadomień o nienaturalnych linkach wysyłanych przez Google

Odtwórz wideo

Spośród 700 000 powiadomień wysłanych za pośrednictwem Narzędzi dla webmasterów Google w styczniu i lutym 2012, ponad 600 000 dotyczyło technik black hat SEO, takich jak czysty spam, gdzie samo wejście na stronę nie pozostawia złudzeń. Okazuje się, że tylko około 3% wysłanych wiadomości było związanych z nienaturalnymi linkami. Czyli mniej niż 25 000 spośród 700 000 przesłanych powiadomień dotyczyło nienaturalnego linkowania.

44. Rozpoznawanie synonimów przez Google

Odtwórz wideo

Matt Cutts zaleca wykorzystywanie synonimów, o ile nie sprawi to, że tekst będzie brzmiał sztucznie. W Google istnieje odrębny zespół Synonyms Team i jego zadaniem jest tworzenie rozwiązań, które pozwalają na zrozumienie, że słowa „samochód” i „auto” mogą oznaczać to samo. Jednak Matt zastrzega – te rozwiązania nie zawsze muszą działać perfekcyjne. Dlatego zamiast polegać na wyszukiwarce internetowej, lepiej w naturalny sposób wykorzystywać na stronie synonimy. Dzięki wykorzystaniu synonimów i powiązanych fraz można zredukować lub wyeliminować niepewność związaną ze swego rodzaju zgadywaniem lub szacowaniem przez Google o czym jest strona.

45. Różnica między kupowaniem linków a linkami reklamowymi

Odtwórz wideo

Dlaczego Google karze witryny, które sprzedają/kupują linki, a nie nakłada kar na serwisy z innymi reklamami, jak AdSense? Dlaczego w porządku jest kupowanie reklam na Facebooku, a kupowanie linków już nie? Po prostu jedne linki manipulują rankingiem wyników wyszukiwania, a inne nie. Google nie jest przeciwnikiem reklam. Jest wiele powodów, dla których warto się reklamować. Reklamy mogą mieć charakter edukacyjny, informacyjny i kierować ruch do serwisu.

Osoba, która płaci za linki przekazujące PageRank, zasadniczo płaci za coś, co manipuluje wyszukiwarkami internetowymi oraz pogarsza doświadczenia użytkowników w wynikach wyszukiwania. Google uważa to za naruszenie swoich wytycznych. We wskazówkach dla webmasterów Google podaje przykłady linków, które służą manipulowaniu wynikami wyszukiwania.

Można sprzedawać i kupować linki reklamowe, ale upewniając się, że nie przekazują one PageRank, na przykład poprzez nadanie im atrybutu rel="nofollow". Znakomita większość reklam banerowych w sieciach reklamowych jest skonfigurowana tak, aby linki nie przekazywały wartości PageRank.

46. Błędy dostępu do pliku robots.txt

Odtwórz wideo

Co zrobić, kiedy w Narzędziach dla webmasterów pojawia się komunikat, że Googlebot napotkał błędy podczas próby uzyskania dostępu do pliku robots.txt, a ich odsetek jest mniejszy niż 100%?

Najczęstszym wyjaśnieniem problemu jest przeciążenie witryny. Używając Narzędzi dla webmasterów można znaleźć dzień z wysokim odsetkiem błędów i sprawdzić dzienniki serwera WWW z tego dnia, aby usunąć przyczyny błędów dostępu do pliku robots.txt. Niewiele osób wie o tym, że jako narzędzie diagnostyczne można wykorzystać także funkcję Pobierz jako Google w Narzędziach dla webmasterów.

Matt podaje również obrazowy przykład, dlaczego niektórych webmasterów dosięgają kłopoty związane z indeksowaniem ich stron. Niektórzy próbują ukrywać treści, ale kończy się to niepowodzeniem i maskowanie (ang. cloaking) daje efekt odwrotny od oczekiwanego. Kiedy serwis odwiedza zwykła przeglądarka, serwowana jest zawartość, a kiedy odwiedza go Google, tej zawartości brak. Według Matta Google często napotyka na próby maskowania, które kończą się strzałem w stopę – Googlebotowi nie jest zwracana żadna zawartość.

47. Własny blog a praktyczna wiedza SEO

Odtwórz wideo

Matt Cutts odpowiada, że prowadzenie własnego bloga pomogło mu wejść w rolę webmastera czy właściciela witryny. Chęć rankowania wysoko w wynikach wyszukiwania jest według niego naturalnym podejściem właściciela witryny, który chce zgromadzić grono odbiorców swoich treści. Nie oznacza to od razu chęci zaspamowania Internetu. Dlatego zachęca członków swojego zespołu do prowadzenia własnych witryn internetowych, aby lepiej rozumieli intencje prowadzących serwisy internetowe.

Matt podczas prowadzenia bloga nauczył się również, że tworzenie list czy tytułowanie wpisów w stylu 10 najlepszych… generuje większą liczbę kliknięć.

48. Search Engine Optimization vs. Search Experience Optimization

Odtwórz wideo

Wiele osób postrzega SEO jako samo pozyskiwanie linków. Tak naprawdę SEO obejmuje wszystkie działania zmierzające do stworzenia świetnego serwisu internetowego – upewnienie się, że jest on dostępny dla wyszukiwarek internetowych i marketing, mający na celu dotarcie z serwisem do internautów.

Matt Cutts proponuje także alternatywne rozwinięcie skrótu SEO, jako Search Experience Optimization (zamiast Search Engine Optimization), czyli optymalizacja doświadczeń użytkownika podczas wyszukiwania. Ale nie o nazwę tu chodzi, a o działania jakie się pod nią kryją.

49. Czas odpowiedzi na prośbę o ponowne rozpatrzenie zgłoszenia witryny

Odtwórz wideo

Po wysłaniu prośby o ponowne rozpatrzenie wysyłana jest wiadomość potwierdzająca otrzymanie przez Google prośby. Czas potrzebny na rozpatrzenie prośby różni się dla konkretnych przypadków, ale właściwa odpowiedź zwykle powinna być wysłana w ciągu kilku dni, czy tygodnia. Odpowiedź może przybrać jedną z 3 form:

  • jesteś na dobrej drodze, prośba została rozpatrzona pozytywnie
  • musisz jeszcze popracować nad witryną, prośba została rozpatrzona negatywnie
  • witryna nie została ręcznie ukarana przez pracowników Google Webspam Team

 
W wyjątkowych przypadkach webmaster może otrzymać powiadomienie, że rozpatrywanie prośby jest w toku.

Jeżeli odpowiedź na prośbę o ponowne rozpatrzenie witryny nie zostanie przesłana w ciągu kilku tygodni, to warto napisać o tym problemie na Forum Google dla Webmasterów lub ponowić prośbę.

50. Parametry powodujące duplikowanie adresów URL

Odtwórz wideo

Pytanie dotyczyło interpretacji przez wyszukiwarkę adresów URL kończących się parametrami, które nie zmieniają zawartości strony (np. parametry śledzenia kampanii reklamowych). Teoretycznie mechanizmy Google starają się łączyć zduplikowane w ten sposób adresy URL (sprowadzać do postaci kanonicznej, czyli podstawowej).

Jeżeli stosowane są standardowe parametry URL, to Google zazwyczaj jest w stanie wykryć, że wskazują one tę samą stronę. Można jednak nie ufać mechanizmom wyszukiwarki, które nie muszą być idealne. Istnieje więc kilka dodatkowych rozwiązań:

51. Jak Google postrzega linki site-wide

Odtwórz wideo

Z algorytmicznego punktu widzenia kolejne linki z tej samej domeny są traktowanie podobnie jak wystąpienia słowa kluczowego na stronie internetowej. Pierwsze wystąpienie ma największe znaczenie, drugie ma mniejsze znaczenie, trzecie jeszcze mniejsze, itd. W pewnym momencie kolejne wystąpienia praktycznie przestają mieć znaczenie.

Podobnie jest z linkami site-wide. Na przykład 50 linków z tej samej domeny prowadzących do tego samego adresu może zostać policzone przez Google jako jeden link. Moc linków site-wide jest więc w pewnym sensie kompresowana.

Druga sprawa to linki site-wide, które mogą podlegać nałożeniu ręcznej kary przez zespół Google Webspam Team (np. link wyglądający na reklamowy, nietematyczny, niskiej jakości lub spamerski). Linki site-wide same w sobie są naturalnym zjawiskiem, ale ich niewłaściwe wykorzystanie może prowadzić do ukarania witryny internetowej.

52. Wpisy „gościnne”

Odtwórz wideo

Wpisy gościnne są popularnym sposobem pozyskiwania linków. Jednak metoda ta, jak każda inna, jest nadużywana. W skrajnych przypadkach „wpisy gościnne” mogą przyjąć formę zjawiska article spinning, które polega na przerabianiu (synonimizowaniu) istniejących artykułów. Jeśli Twoja witryna linkuje do witryny postrzeganej jako spamerska lub niskiej jakości, to może to wpłynąć na ocenę reputacji Twojej witryny. Można to określić jako publikowanie niskiej jakości artykułów w witrynie.

Podobnie działa to w drugą stronę – pozyskiwanie linków z takiej spamerskiej działalności może zaszkodzić linkowanej witrynie. Google może podjąć działania, jeśli wykryje spamerskie blogowanie czy spamerskie wpisy gościnne. Po więcej szczegółów Google odsyła do swojego artykułu pomocy: Programy wymiany linków.

53. Parkowanie domeny do momentu uruchomienia w niej witryny

Odtwórz wideo

Google posiada detektor zaparkowanych domen. Po wykryciu, że domena jest zaparkowana, Google stara się nie wyświetlać jej w wynikach wyszukiwania, ponieważ takie wyniki wyszukiwania są źle widziane przez użytkowników.

Zaparkowanie domeny do samego momentu uruchomienia witryny powoduje, że Google potrzebuje czasu na ponowne przeanalizowanie strony i uznanie, że domena nie jest już zaparkowana.

Jeśli kupiłeś domenę i zamierzasz uruchomić w niej witrynę, to kilka tygodni wcześniej umieść tam stronę z kilkoma paragrafami unikalnego tekstu. Tekst może na przykład opisywać tematykę uruchamianego serwisu. Chodzi o to, aby domena nie wskazywała na całkowicie pustą stronę czy szablon strony, ponieważ Google stara się eliminować tego typu bezwartościowe wyniki ze swojego indeksu.

Umieszczenie tymczasowej zawartości pozwala skrócić czas potrzebny na pojawienie się nowej witryny w wynikach wyszukiwania. Wyszukiwarka Google nie będzie potrzebowała czasu na upewnienie się, że domena nie jest dłużej zaparkowana. Wystarczy samo jej przeindeksowanie przez roboty.

54. Dlaczego Google rezygnuje ze swoich produktów

Odtwórz wideo

Kontynuowanie wsparcia produktu jest uzależnione od tego czy rozwiązanie się przyjmie i będzie wykorzystywane przez dużą grupę użytkowników (czyt. będzie opłacało się je rozwijać).

55. Pobieranie adresu HTTPS narzędziem „Pobierz jako Google”

Odtwórz wideo

Narzędzie „Pobierz jako Google” działa dla adresów HTTPS, tak samo jak dla adresów HTTP. Wcześniej należy po prostu zweryfikować witrynę w Narzędziach dla webmasterów Google podając jej adres z przedrostkiem https://.

56. Subdomeny czy podkatalogi

Odtwórz wideo

Jak Google obecnie postrzega subdomeny? Czy jest jakaś różnica między witryną zbudowaną jako grupa subdomen a witryną zorganizowaną w podkatalogach? W zasadzie można wybrać dowolną wersję, która jest łatwiejsza w konfiguracji, czy wynika z budowy systemu zarządzania treścią (CMS).

Wcześniej Google dopuszczało tylko 2 wyniki na stronie z tego samego hosta (subdomeny). W tym kontekście korzystne było posiadanie większej liczby subdomen, którymi można było zapełnić wyniki wyszukiwania (2 wyniki z jednej subdomeny, dwa z drugiej, itd.). Google zauważyło, że webmasterzy nadużywają tej metody i zmieniło kryteria dywersyfikacji wyników. Normalną sytuacją jest 1-3 wyniki z danej domeny, ale już pojawienie się 4-5 wyników może być dużo rzadsze. W związku z tym posiadanie subdomen w celu zapełniania SERPów straciło na znaczeniu.

57. Ręczna ocena stron a aktualizacja Panda

Odtwórz wideo

Zagadnienie przybliżyliśmy we wpisie Google upubliczni wewnętrzne wytyczne dla osób oceniających jakość stron w wynikach wyszukiwania?

58. Faworyzowanie klientów AdWords w naturalnych wynikach wyszukiwania

Odtwórz wideo

Korzystanie z usług platformy reklamowej Google AdWords nie ma żadnego wpływu na pozycję w naturalnych wynikach wyszukiwania. Google unika sytuacji, w których klient czy partner podlegałby specjalnemu traktowaniu, czy otrzymywał dostęp do dodatkowych porad związanych z obecnością w naturalnych wynikach wyszukiwania ze względu na współpracę w innych obszarach.

59. Jak obsługiwane są prośby o ponowne rozpatrzenie zgłoszenia witryny

Odtwórz wideo

Jeśli w stosunku do serwisu nie zostały podjęte żadne ręczne działania ze strony pracowników Webspam Team, to prośby o ponowne rozpatrzenie zgłoszenia dla tego serwisu są automatycznie zamykane (nie są czytane). Po prostu zespół do walki ze spamem nie ma możliwości podjęcia żadnych działań, bo pozycja serwisu w rankingu została ustalona całkowicie algorytmicznie. Wszystkie pozostałe prośby o ponowne rozpatrzenie zgłoszenia są czytane przez pracowników Google.

Po otrzymaniu wiadomości zwrotnej w związku z prośbą o ponowne rozpatrzenie zgłoszenia webmaster nie ma możliwości odpowiedzenia na nią. W takim przypadku Google oczekuje, że webmaster weźmie pod uwagę zgłoszone uwagi, poprawi witrynę i dopiero wtedy w razie potrzeby wyśle ponownie prośbę o ponowne rozpatrzenie zgłoszenia z listą wykonanych usprawnień.

Google uruchomiło eksperymentalny program, który polega na wysyłaniu bardziej szczegółowych informacji na temat problemów w witrynie wybranym osobom, które wysłały więcej niż jedną prośbę o ponowne rozpatrzenie zgłoszenia witryny. Program ma za zadanie przetestować nowe formy komunikacji z właścicielami witryn.

60. Dlaczego Google nie udostępnia webmasterom bardziej szczegółowych informacji SEO

Często poruszany temat przejrzystości działań wyszukiwarki Google, czyli jak Google stara się dostarczać informacji webmasterom tak, aby nie pomagać spamerom. Nic nowego :)

61. Cytowanie źródeł a powielanie treści

Jak prawidłowo cytować źródła bez ryzyka ukarania za powielanie treści? Cytując fragment z innego źródła należy umieścić go w znacznikach blockquote i zawrzeć link do oryginalnego źródła. Postępując w ten sposób, nie trzeba obawiać się o niekorzystne zjawisko powielania treści.

Jednak jeśli cytowanie polega na umieszczaniu całego artykułu lub artykułów z innej witryny bez tworzenia własnej zawartości, to może to wpłynąć na ocenę reputacji serwisu przez wyszukiwarkę Google. Treść nie powinna składać się z samych cytatów. Należy stworzyć własną wartość dodaną w postaci unikalnego komentarza, własnego punktu widzenia, analizy, itp.

62. Analizować swoje linkowanie czy nie analizować

Jeżeli webmaster nie ma nic na sumieniu w kwestii pozyskiwania nienaturalnych linków, to nie ma potrzeby aby analizował linkowanie swojej witryny pod kątem występowania nienaturalnych linków. Dopiero powiadomienie o wykryciu nienaturalnych linków jest sygnałem, że linki które pozyskał serwis są dla wyszukiwarki podejrzane.

63. Linki z widżetów i stopek

Kiedy ktoś zainstaluje widżet (ang. widget) czy szablon strony w swoim systemie zarządzania treścią (CMS), problemem jest to, że to nie on decyduje o umieszczeniu linka z określonym tekstem odnośnika. Można spotkać sytuacje, że bardzo dużo linków posiada dokładnie ten sam tekst odnośnika (ang. anchor text), ponieważ został on wbudowany w widżet.

Nawet jeśli tekst odnośnika nie jest identyczny, to relatywnie takie linki nie są naturalne, ponieważ o ich budowie decyduje autor widżetu czy szablonu, a nie osoba faktycznie tworząca link przez umieszczenie go na stronie. Google na ogół nie chce, aby takie linki były traktowane na równi z linkami tworzonymi w pełni naturalnie.

64. Wykluczanie linków

Matt wyjaśnia działanie nowego narzędzia do wykluczania linków. Opisaliśmy je szczegółowo we wpisie: Wykluczanie linków tylko dla odważnych.

65. Wpływ znaczników schema.org na wyniki wyszukiwania

Ten temat również poruszyliśmy we wcześniejszym artykule: Czy znaczniki schema.org mają wpływ na pozycję strony w wynikach wyszukiwania?

66. Wpisy gościnne jako źródło linków

Wpis gościnny wpisowi gościnnemu nie równy. Można rozpatrywać wpisy gościnne wysokiej jakości, które są warte uwagi, albo ekstremalne potraktowanie wpisów gościnnych jako maszynki do produkowania linków. Wpis gościnny osoby o uznanym autorytecie umieszczony na blogu to dodatkowa wartość dodana.

Z kolei dla osób mniej znanych tworzenie wpisów gościnnych jest sposobem na spopularyzowanie swojej osoby i podzielenie się wiedzą z szerszym gronem odbiorców. Jednak wpisy gościnne potraktowane tylko jako źródło linków mogą polegać na oferowaniu niskiej jakości wpisu, który nie stanowi żadnej wartości dla użytkowników.

67. Znaczenie świeżości stron w algorytmie wyszukiwarki

Google w przeszłości potwierdziło, że regularnie aktualizowane strony mogą być preferowane w wynikach wyszukiwania, co faworyzuje blogi i serwisy newsowe w zestawieniu z witrynami firmowymi, które mają mniej okazji do częstych aktualizacji.

Jak ważna jest „świeżość”? Sam fakt, ze strony bloga czy serwisu są często aktualizowane nie oznacza automatycznie wzrostu pozycji w wynikach wyszukiwania.
Warto wyróżnić różne rodzaje wyszukiwań:

  • nawigacyjne (celem jest dotarcie do konkretnego serwisu, np. wyszukiwanie nazwy firmy)
  • informacyjne (celem jest pozyskanie informacji z jednej lub kilku stron internetowych)
  • transakcyjne (celem jest wykonanie pewnej czynności online, np. zakupu produktów).

Wskazany podział pochodzi z dokumentu A taxonomy of web search. Przechodząc do bardziej szczegółowej analizy można wyróżnić wyszukiwania, dla których istotna jest świeżość informacji. Są to tzw. zapytania QDF (Query that Deserves Freshness). Ale nie każde zapytanie wymaga świeżości informacji i wtedy nie ma ona aż takiego dużego znaczenia w rankingu wyników wyszukiwania. Znaczenie świeżości dla serwisu zależy więc od jego tematyki.
 
 
Zgadzacie się z opiniami Matta Cuttsa?

Zdjęcie: Google+

3 komentarzy:

Dodaj komentarz

Chcesz się przyłączyć do dyskusji?
Feel free to contribute!

Dodaj komentarz