Matt Cutts co jakiś czas publikuje nagrania na kanale YouTube – Google Webmaster Help. Zawierają one w większości odpowiedzi na pytania Internautów. Postanowiliśmy wybrać najciekawsze z opublikowanych w zeszłym roku i przedstawić informacje w nich zawarte w składającym się z 12 części podsumowaniu. Dzisiaj prezentujemy trzecią z kolei część zawierającą najciekawsze z wypowiedzi opublikowanych w marcu ubiegłego roku:

Jakie są skuteczne techniki budowania linków?
( http://www.youtube.com/watch?v=MkLFlaWxgJA)

Jednym z najlepszych sposobów na pozyskanie linków jest udział w społeczności. I nie chodzi tu o rejestrację i spamowanie wielu blogów i forów. Dobrym przykładem jest pomaganie innym internautom poprzez odpowiadanie na pytania. Poświęcając trochę więcej czasu przy tworzeniu zawartości, zagłębiając się w temat (np. wykonując własne badania/testy) ma się większe szanse na pozyskanie linków.

Witryny społecznościowe – warto pomyśleć o tym, gdzie ludzie spędzają swój czas. Poznawanie tych osób może odpłacić się na różne sposoby, nie tylko w postaci linków. Dobrym sposobem jest również tworzenie blogów i zostanie autorytetem w jakiejś dziedzinie poprzez stworzenie zbioru dobrych artykułów. Innym dobrym przykładem są poradniki „how to” i tutoriale.

Warto podkreślić, że nie zawsze chodzi o zdobycie linków, czasami wystarczy posiadanie zasobów, których nie ma nikt inny. Można uruchomić usługę, którą ludzie uznają za użyteczną, lub nawet stworzyć produkt, który udostępniony zostanie za darmo społeczności, np. dodatek Firefox lub Chrome, plugin WordPress, itp.

Należy upewnić się, że witryna posiada dobrą architekturę. Poprawna architektura serwisu ułatwia bowiem linkowanie do niego. Dobrym pomysłem jest także stworzenie kilku filmów wideo.

Czy Page Rank profilu na Twitterze ma znaczenie?
(http://www.youtube.com/watch?v=lPgczWynzyY)

Page Rank (jako jeden z ponad 200 sygnałów) profilu na Twitterze ma znaczenie jeśli chce się, aby profil ten osiągnął wysokie pozycje. Nie ma to natomiast znaczenia dla linków wychodzących z profilu, ponieważ posiadają atrybut nofollow. Page Rank profilu opiera się na wartości linków przychodzących, nie na liczbie śledzących czy wpisów. Matt Cutts podkreśla: Nie martwiłbym się bardzo o wielkość Page Rank profilu na Twitterze, a o sposoby jak zaangażować użytkowników, pozyskać komentarze i odpowiedzi.

Komentarz: Google potwierdziło ostatnio, że używa sygnałów społecznościowych w wynikach wyszukiwania. Chodzi tu o sygnały pochodzące z Facebooka i Twittera. Więcej na ten temat w artykule: Jakie sygnały społecznościowe w rzeczywistości zliczają wyszukiwarki.

Czy Google traktuje “nazwa marki” i “nazwa marki ®” inaczej?
(http://www.youtube.com/watch?v=wNXmiCqevM8)

Google zazwyczaj segmentuje, oddziela nietypowe znaki, jak ®, ‒, |. Więc jeśli posiada się nazwę marki, a po niej symbol zastrzeżonego znaku towarowego ® (np. Marka®), to zwykle Google rozdzieli je i rozróżni samą nazwę marki, nie traktując całości jako jednego słowa. W większości przypadków nie powinno również stanowić problemu dla wyszukiwań posiadanie samej nazwą marki bez znaku ®.

Czy mogę zablokować zduplikowane strony przy użyciu pliku robots.txt?
(http://www.youtube.com/watch?v=CJMFYpYQZ0c)

Matt Cutts nie zaleca blokowania zduplikowanych stron za pomocą pliku robots.txt, powinna być to ostateczność. Należy zadbać przede wszystkim o wykorzystanie wszystkich możliwości poprawienia architektury witryny i pozwolić na to, aby Google samo odróżniło duplikaty.

Czy można prezentować Googlebotowi odmienną stronę, nie zawierającą reklam?
(http://www.youtube.com/watch?v=wBO-1ETf_dY)

Dostarczanie innej zawartości Googlebotowi i użytkownikom to cloaking, który wiąże się z dużym ryzykiem. Zawsze należy dostarczać wyszukiwarce dokładnie taką samą stronę, którą widzi zwykły użytkownik. Gogglebot i tak w większości przypadków nie będzie wykonywał skryptów reklam.

Komentarz: Matt Cutts zapowiedział ostatnio, ze w 2011 roku Google będzie zwracać większa uwagę na różnego rodzaju techniki cloakingu. Więcej w artykule: Google będzie zwracać większą uwagę na Cloaking.

Na jakim poziomie są rozpatrywane linki nofollow?
(http://www.youtube.com/watch?v=bEBIkXUYSxc)

Linki nofollow rozpatrywane są na poziomie konkretnego odnośnika, a nie na poziomie całej strony. Link nofollow nie przekazuje żadnej wartości, ale nie ma to wpływu na pozostałe linki na stronie.

Komentarz: Google potwierdziło ostatnio, że używa sygnałów społecznościowych w wynikach wyszukiwania. Chodzi tu o sygnały pochodzące z Facebooka i Twittera – linki z tych serwisów zawierają atrybut rel=”nofollow” Więcej na ten temat w artykule: Jakie sygnały społecznościowe w rzeczywistości zliczają wyszukiwarki. Ponadto testy przeprowadzone przez nasz zespół potwierdziły, że Google nie zawsze omija tego typu linki. Zatem można stwierdzić, że linki nofollow wcale nie są zupełnie bez znaczenia.

Czy umieszczanie ogólnych opisów produktów zmniejszy znaczenie innych unkalnych treści znajdujących się na stronie?
(http://www.youtube.com/watch?v=JFNK8gSDxHA)

Umieszczenie standardowego opisu produktu, znajdującego się na tysiącach innych stron, może obniżyć wartość dodatkowej unikalnej zawartości. Strona taka może zostać uznana za gorszą od takiej, która zawierałaby tylko unikalną zawartość.

Czy należy martwić się o karę, jeżeli szybko zostanie usunięta „zhackowana” treść?
(http://www.youtube.com/watch?v=jvVKpjFXS5s)

Jeżeli strona została zhackowana, warto przeprowadzić wyszukiwanie site:. Jeżeli wyniki wyszukiwania są nadal dobre, a ruch na podobnym poziomie, to prawdopodobnie witryna została naprawiona zanim Google zanotowało spamerskie treści. Można również sprawdzić Centrum Wiadomości w Narzędziach dla Webmasterów – Google mogło wysłać wiadomość o zhackowaniu serwisu.

Komentarz: Dwa tyg. temu temu Google dodało nowe powiadomienia do wyników wyszukiwania, które pojawiają się wówczas kiedy istnieje podejrzenie, że witryna jest ofiarą ataku hackerskiego. Do tej pory Google wyświetlało jedynie ostrzeżenia przed szkodliwym oprogramowaniem. Więcej na ten temat w artykule Nowe powiadomienia Google w wynikach wyszukiwania.

Jak można skłonić Google do zindeksowania większej ilości stron umieszczonych w Sitemapie?
(http://www.youtube.com/watch?v=0GvWruhcmwY)

Umieszczenie stron w pliku mapy witryny XML nie gwarantuje, że Google wszystkie je przeanalizuje i zindeksuje. Najlepszym rozwiązaniem, aby więcej stron zostało zindeksowanych jest zyskanie większego autorytetu i reputacji, zasadniczo poprzez proces pozyskiwania linków, które są zaufane. Warto również zwrócić uwagę na ruch przychodzący do witryny i rzeczy takie jak współczynniki konwersji, a nie przejmować się tak bardzo ilością zindeksowanych podstron.

Czy można upewnić się, ze Google zawsze używa meta tagu description przy tworzeniu opisu snippeta?
(http://www.youtube.com/watch?v=ueyrb1PhULg)

„Pozostawiamy sobie prawo do opisania witryny w wynikach wyszukiwania w sposób który uznamy za najbardziej przydatny dla użytkowników. Często, jeśli posiadasz dobry znacznik meta description, użyjemy go. Ale jeśli uznamy, że nie jest on dobry, np. jest prawie pusty, albo posiada słowo „Untitled”, powtarza się w tej samej formie na każdej stronie serwisu, itp. to możemy uznać, że fragment tekstu ze strony jest lepszy i użyć go w wynikach wyszukiwania.”

Może również zostać użyty np. opis z Open Directory Project lub coś innego, co uznane zostanie przez Google za użyteczne. Matt Cutts podkreśla również, że przy tworzeniu snippeta kierują się przede wszystkim dobrem użytkowników i dlatego nie zawsze zawartość meta description będzie uznawana jako najlepszy opis strony. Webmasterzy nie mają nad tym całkowitej kontroli.

Czy jest coś przemawiające przeciwko tworzeniu krótkiej listy “powiązanych postów”?
(http://www.youtube.com/watch?v=rasT-oQW3hY)

Nie powinno być żadnych negatywnych konsekwencji tak długo, dopóki będzie to krótka lista, np. 2 – 5 powiązanych postów. Użytkownicy mogą uznać takie rozwiązanie za pomocne. Elementy takie jak powiązane wpisy dają ludziom dobry powód do pozostania w serwisie oraz pomagają im odkrywać więcej wartościowych treści w witrynie.

Czy linki do nie-kanonicznych adresów URL będą przekazywać jakąkolwiek wartość stronie kanonicznej?
(http://www.youtube.com/watch?v=PuY49ZB-yqg)

Idealnym rozwiązaniem jest architektura serwisu, która nie powoduje tworzenia duplikatów. Poza tym, jeśli można zrobić przekierowanie 301 z duplikatów do preferowanego lub kanonicznego adresu URL, to jest to najlepsze rozwiązanie. Jeżeli nie można naprawić architektury serwisu lub ustawić przekierowania 301, wówczas można użyć rel=”canonical”, aby powiedzieć ‘ten URL jest dokładnie taki sam jak ten URL‘. Ogólnie rzecz biorąc Google za każdym razem kiedy łączy zduplikowane adresy URL serwisu, próbuje upewnić się, że linki do różnych stron zostają połączone poprawnie. Jednak jeśli można rozwiązać problem po swojej stronie, jest to idealne wyjście, lepsze dla wszystkich.