Porady Matta CuttsaPrzez dłuższy czas nie aktualizowaliśmy artykułu z podsumowaniem porad dla webmasterów (i nie tylko) Matta Cuttsa. Postanowiliśmy powrócić, ale w nieco odmienionej formule. Tym razem oddajemy głos Mattowi Cuttsowi, cytując całe jego wypowiedzi, wyróżniając najciekawsze fragmenty i czasami dodając własne podsumowanie.

W pojedynczym artykule pojawi się kilka porad, aby ilość treści była łatwiejsza do przyswojenia.

 

1. Jakość wyników wyszukiwania oparta na subiektywnych czynnikach

Odtwórz wideo

Jak Google może ufać swoim wynikom wyszukiwania, skoro polega głównie na zasadniczo subiektywnych sygnałach wpływających na to, która strona się wyświetla (np. ludzie oceniający jakość całej domeny, którzy nie uwzględniają kontekstu samego zapytania)?

W tym pytaniu zawarte jest ukryte założenie, które nie jest prawdziwe, tj. że nie dostarczamy kontekstu zapytania. Dużą częścią pracy osoby oceniającej jakość jest branie wyników wyszukiwań i porównywanie ich. Więc nie porównują ich nie wiedząc dlaczego w ogóle na to patrzą, widzą oni kontekst zapytania. Wprawdzie problemem może być postawienie się na miejscu wyszukującego, jeśli ktoś inny wpisał to zapytanie, ale oceniający widzą domenę i zapytanie, i są w stanie ocenić to, jak są one powiązane.

W pytaniu tym kryje się jeszcze trochę filozofii, tj. to, że są to zasadniczo subiektywne sygnały. I zgodziłbym się z tym. Myślę, że osoby, które uważają, że wyszukiwarki są zupełnie obiektywne pomijają fakt, że każda wyszukiwarka ma swoją własną filozofię, każda wyszukiwarka ma swój własny zestaw algorytmów i te algorytmy ucieleśniają filozofię wyszukiwarki. Niektóre algorytmy mogą preferować różnorodność, inne mogą używać więcej Wikipedii.

Każda wyszukiwarka na swoją własną wizję tego, jaki powinien być dobry wynik wyszukiwania. Nie ma jakiegoś naukowo sprawdzalnego „najlepszego sposobu” podawania wyników wyszukiwania. To zawsze będzie trochę subiektywne. Myślę, że dobre jest to, że staramy się słuchać uwag z zewnątrz. Mamy ludzi takich jak Amit Singhal, który zajmuje się rankingami i wyszukiwaniem informacji dłużej niż wielu specjalistów SEO chodzi po świecie (jeśli jesteś młodym specjalistą SEO) i ma doktorat z wyszukiwania informacji. Wielu z nas pracuje nad tym od dawna, więc sądzę, że mamy dobre wyczucie tego, kiedy ludzie będą niezadowoleni.

Na przykład przy Pandzie pracujemy nad wykryciem treści niskiej jakości, czyli czymś, co jest pomiędzy kompetencjami zespołu ds. jakości i zespołu ds. spamu. A więc treść niskiej jakości, która nie jest spamem, ale jest prawie jak spam. Pracujemy nad tym od miesięcy i myśleliśmy o tym miesiącami przed rozpoczęciem pracy, i zanim wielu użytkowników zirytowało się tymi zmianami.

Musimy powiedzieć sami sobie, jak wszystkie firmy technologiczne, że ludzie mogą popełniać błędy. Możliwe, że pokazujemy za mało zróżnicowane domeny albo za bardzo zróżnicowane domeny i jest ważne, by słuchać tego, co mówią użytkownicy spoza Google. Ale staramy się też upewnić, że na przykład nasi oceniający mają odpowiedni kontekst i zazwyczaj widzą zapytanie tak, by mogli ocenić „OK, kiedy patrzę na tę stronę, czy jest to naprawdę wynik, który dobrze pasuje do zapytania”, czy „Nie jest to za dobre dopasowanie”.

Algorytm wyszukiwarki opiera się na subiektywnych wyznacznikach trafności i jakości wyników wyszukiwania, które wynikają z przyjętej filozofii funkcjonowania danej wyszukiwarki.

2. Znaczenie koloru koszulek Matta Cuttsa

Odtwórz wideo

Czy kolor twojej koszulki jest jakoś powiązany z tematem, o którym mówisz?

Czasem jest. Na przykład teraz mam czerwoną koszulkę, bo właśnie nakręciłem filmik świąteczny, więc ludzie będą w świątecznym nastroju. Koszulka nie zawsze jest powiązana z tematem i często wybór jest przypadkowy. Ale od czasu do czasu wrzucamy mały żarcik związany z koszulkami, więc jeśli będziecie czujni, możecie zauważyć coś interesującego.

No dobra, dla webmasterów porada to żadna, ale może być inspiracją dla blogerek modowych i youtuberów ;-)

Matt Cutts jako cel ataków pozycjonerów?

Matt Cutts jako cel ataków pozycjonerów?

3. Artykuły sponsorowane (advertoriale)

Odtwórz wideo

(…) Zacznijmy od najłatwiejszej kwestii: treści redakcyjnych. To podstawa tego, o czym piszesz. Jeżeli jesteś blogerem, to jest to główny temat, o którym piszesz. W przypadku gazet są to artykuły publikowane online lub w wersji drukowanej. Myślę, że ludzie mają dość dobre pojęcie o tym, co to są treści redakcyjne.

A jak wygląda sprawa z treściami sponsorowanymi i reklamami natywnymi? Cóż, jest to reklama, ale jest to rodzaj reklamy, który zazwyczaj jest trochę bardziej podobny do treści redakcyjnych. W zasadzie oznacza to, że ktoś otrzymał za to pieniądze, a nie napisał o tym z własnej inicjatywy, bo uznał temat za interesujący lub po prostu miał na to ochotę.

Dlaczego mnie to obchodzi? Dlaczego robimy na ten temat film? Cóż, powód jest taki, że w zespole zajmującym się spamem dostrzegamy pewne problemy dotyczące artykułów sponsorowanych, reklam natywnych lub opłacanych treści, których natura nie została ujawniona. Ludzie, którzy na nie trafiają nie zdają sobie sprawy z tego, że to, na co patrzą, zostało opłacone. Na tym polega problem.

Nasze wytyczne od dawna, bo przynajmniej od 2005 roku określają, że jeżeli płacisz za linki, to nie powinny one przekazywać PageRank. Powodem jest to, że Google od bardzo dawna, a w zasadzie ogólnie ludzie w Internecie, w większości traktowali linki jako głosy redakcyjne, linkując do czegoś, bo to ich inspiruje i pobudza ich pasje, bo jest ciekawe i chcą się tym podzielić ze znajomymi. Jest jakiś powód, dla którego chcą zwrócić uwagę na te konkretne linki.

Na przykład ktoś może przyjść do dziennikarza jakiejś gazety i zaoferować mu pieniądze za umieszczenie linka do swoich treści w artykule, który ten pisze, to jak by to wyglądało? Byłoby to nieuczciwe. Ludzie nie wiedzieliby, że chodziło o pieniądze. I to naprawdę nie byłoby fair. Tak więc płatne linki przekazujące PageRank zmieniają obraz sytuacji. Wprowadza to zaburzenia, które nie pozwalają ludziom konkurować na takich samych warunkach, a właśnie to chcieliśmy zapewnić w sieci, w szczególności w indeksie Google.

Jakie więc są wytyczne dla artykułów sponsorowanych i reklam natywnych? Należy pamiętać o dwóch aspektach. Pierwszy dotyczy wyszukiwarki. Jeśli chodzi o wyszukiwarkę, to należy dopilnować, żeby w przypadku opłacenia linków, czyli gdy doszło do transakcji pieniężnej w celu umieszczenia linku na stronie internetowej, to taki link nie powinien przekazywać PageRank, czyli nie powinien mieć wpływu na rankingi wyszukiwarek internetowych. Nie różni się to od wytycznych stosowanych przez nas od wielu lat.

Także w przypadku ujawnienia charakteru treści, należy upewnić się, że jest to jasne dla odbiorców. Dobrą zasadą jest jasne i czytelne oznaczenie treści. Nie powinno być tak, żeby ludzie musieli się wczytywać czy też długo się rozglądać, żeby zorientować się w końcu, że treści, które czytają, zostały umieszczone odpłatnie.

Dlaczego mówimy o tym teraz? Nie jest to zmiana polityki dotyczącej naszej wyszukiwarki, na pewno nie w zespole zajmującym się spamem. Powodem jest to, że są tacy, którzy nie robią tego w sposób właściwy. Tak więc na przykład w Wielkiej Brytanii są strony, które pobierają pieniądze za pisanie artykułów zawierających teksty odnośników pełne słów kluczowych, które przekazują PageRank, nie ujawniając, że były to artykuły płatne. I to właśnie denerwuje zwykłych użytkowników przypadkowo czytających treści umieszczone na stronie, kiedy orientują się, że treści te zostały tam umieszczone odpłatnie.

Od lat podejmowaliśmy w takich sytuacjach działania, i zamierzamy to robić dalej. Uważamy, że ważne jest, żeby użytkownik był w stanie określić, czy ktoś zapłacił za umieszczenie danych treści w sieci. To nie ogranicza się tylko do zespołu zajmującego się spamem. Nie chodzi tylko o jakość wyszukiwania i wyniki Google.

Zespół Google News opublikował ostatnio na swoim blogu informację, w której określa, że w przypadku nieodpowiedniego opisania informacji o płatnych treściach – reklamach natywnych, artykułach sponsorowanych, czy czymkolwiek innym za co zapłacono – jeśli użytkownicy nie będą mogli tego jednoznacznie określić ze względu na nieodpowiednie opisanie treści, to zespół Google News zadeklarował, że płatne treści mogą nie tylko zostać usunięte, ale możemy się także posunąć do usunięcia publikacji z serwisu Google News.

Myślę, że jeśli przyjrzeć się Google i naszej polityce dotyczącej artykułów sponsorowanych, to zobaczycie, że nie zmieniła się w ciągu ostatnich kilku lat, ale chcemy przypomnieć o pewnych rzeczach i upewnić się, że ludzie mają świadomość pewnych rzeczy. Nie może być tak, że przyjmujecie pieniądze za umieszczanie treści w sieci, a użytkownicy nie zdają sobie z tego sprawy, bo nie zostało to wystarczająco jasno określone, zarówno dla użytkowników, jak i wyszukiwarek. Będziemy w tej kwestii podejmować działania – nie ograniczając się tylko do wyników wyszukiwania, nie tylko w ramach naszego zespołu zajmującego się spamem, ale również w Google News. Dlatego chciałbym prosić każdego, kto się tym zajmuje, o bardzo rozważne działanie w każdym przypadku, aby upewnić się że użytkownicy są w odpowiedni sposób informowani o tym, które treści zostały zamieszczone odpłatnie, a które nie.

Działania, które mają na celu wprowadzenie w błąd użytkowników lub nienaturalne manipulowanie wynikami wyszukiwania są negatywnie postrzegane przez Google. Umieszczanie w artykułach sponsorowanych linków przekazujących PageRank jest niezgodne z wytycznymi Google i może skutkować ukaraniem witryny publikującej oraz kupującej takie linki. Podobnie brak jednoznacznego oznaczenia artykułów sponsorowanych może spowodować usunięcie treści lub całego serwisu z usługi Google News.

4. Nieporozumienia w branży SEO

Odtwórz wideo

Którego aspektu aktualizacji Google twoim zdaniem branża SEO po prostu nie rozumie?

Jest wiele odpowiedzi, których mógłbym udzielić. Pierwsza z nich to różnica pomiędzy aktualizacją algorytmu a odświeżeniem danych. Gdy aktualizujemy algorytm, zmieniają się sygnały i waga sygnałów, których używamy. W przypadku odświeżania danych, algorytm pozostaje taki sam, ale dane wejściowe mogą być inne. Możesz odświeżać dane, których używa komputer. To jest coś, czego wielu ludzi nie do końca rozumie.

Ale ważniejszą kwestią, którą nie do końca rozumieją jest… Słyszałem wiele oskarżeń, że wprowadzając Pandę i Pingwina, Google stara się po prostu zwiększyć swoje zyski. I chciałbym ustosunkować się bezpośrednio do tego. Panda, jeśli spojrzeć na nasze kwartalne sprawozdania, zmniejszyła nasze przychody.

Wiele osób wyznaje teorię spiskową, że Google wprowadza te zmiany, żeby zarobić więcej pieniędzy. My w zespole ds. jakości wyszukiwania nie tylko nie myślimy w ten sposób, ale cieszymy się, gdy możemy wprowadzać zmiany dobre dla długoterminowej lojalności użytkowników, użyteczności i tego typu rzeczy. I jeśli jest to cios finansowy w krótkiej perspektywie, to jest to OK, bo w dłuższej perspektywie ludzie będą chętniej wracali do Google’a.

To częsta „teoria spiskowa” – Google zmienił ranking ponieważ chce, żeby ludzie kupowali więcej reklam. A to na pewno nie jest prawdą w przypadku Pandy i nie jest prawdą w przypadku Pingwina, i zabawne jest myśleć, że jest to jakiś cel w naszej branży. Chciałem wyjaśnić ten błędny pogląd. Panda i Pingwin – wprowadziliśmy te zmiany i nie zastanawialiśmy się, czy zarobimy więcej pieniędzy, czy stracimy pieniądze. Chcemy po prostu zwracać najlepsze wyniki wyszukiwania, jakie się da.

Długoterminowy model jest taki, że chcemy zdobyć długoterminową lojalność użytkowników. Nie chcemy ograniczać ludzi, a więc uwolniliśmy dane, ludzie mogą zawsze odzyskać swoje dane od Google’a i jeśli zdecydowalibyśmy się na krótkoterminowe działania, moglibyśmy zyskać finansowo w krótkim terminie, ale nas interesuje dłuższa perspektywa. Jeśli użytkownicy będą zadowoleni, będą wracali, będą częściej wyszukiwali, będą lubili Google’a, będą bardziej ufali Google’owi. W naszym mniemaniu jest to warte więcej niż krótkoterminowy zysk finansowy. Więc jeśli spojrzymy na historię zmian podejmowanych przez Google, ten trend jest ciągle widoczny i Panda oraz Pingwin nie są tu wyjątkami.

Na których obszarach specjaliści SEO skupiają się za bardzo choć mogliby przeznaczyć wysiłek na zajęcie się innymi rzeczami?

Dobrą odpowiedzią na to pytanie jest budowanie linków. Wiele osób zastanawia się „Jak zdobyć więcej linków?” i nie patrzą z szerszej perspektywy: „Jak uczynić moją treść bardziej interesującą i jak zapewnić jej odpowiednią promocję?” Skupiają się za bardzo na wyszukiwarkach i zupełnie pomijają marketing w mediach społecznościowych, a to znakomity sposób na dotarcie do ludzi.

Myślałbym raczej bardziej tak, jak czyni to Google, o doświadczeniu użytkownika na stronie – co sprawia, że jest ona atrakcyjna, co sprawia, że jest ona ciekawa, co sprawia, że jest fajna? Bo jeśli spojrzymy na historię stron lub firm, które radziły sobie dobrze lub nadal radzą sobie dobrze, takich jak Instagram, Path, nawet Twitter, to ci ludzie próbują uczynić koncepcję strony integralną częścią tego, z powodu czego ludzie chętnie korzystają z tych produktów. To świetne doświadczenie użytkownika, ludziom się to podoba.

Możecie przykładać wagę nie tylko do koncepcji, zwracać uwagę na szybkość i inne elementy doświadczenia użytkownika, ale jeśli naprawdę uda się znaleźć to coś, co jest atrakcyjne dla ludzi, koncepcja jest naprawdę dobra, a doświadczenie użytkownika jest bardzo pozytywne, będziecie naprawdę zaskoczeniu tym, jaki wzrost i ruch osiągniecie.

Możecie na przykład pomyśleć o takich stronach jak CraigsList. Jest to świetna strona, korzysta z niej wiele osób, istnieje „od zawsze”, jest ona niezwykle użyteczna dla ludzi, lecz przez długi czas ich interfejs i doświadczenie użytkownika były dość statyczne. I widzimy teraz nowe pokolenie start-upów, które myślą „OK, skoro CraigsList ma taki statyczny interfejs, spróbujmy to usprawnić” lub „To jest jedna z rzeczy, z którą CraigsList sobie nie radzi, ale ja mogę zrobić coś fajnego”.

To ciekawe, że jeśli wasze witryny nie idą naprzód i nie biorą pod uwagę tego, jak można polepszyć doświadczenie użytkownika, inne witryny będą o tym myślały i mogą was zaskoczyć.

Świetne pytania. Myślę, że wiele osób na forach i forach dla „black hatów” ma takie teorie spiskowe „Google wprowadza te zmiany, bo chce więcej zarobić albo chce sprzedać więcej reklam”, a to nieprawda. A o czym ludzie myślą za bardzo? Ludzie wkładają zbyt dużo wysiłku w optymalizację pod wyszukiwarki i linki, choć powinni skupić się raczej na doświadczeniu użytkownika, samej koncepcji oraz szerszych działaniach marketingowych.

Zmiany w wyszukiwarce Google nie mają na celu doraźnych zysków finansowych, ale służą długoterminowemu budowaniu lojalności użytkowników. Należy patrzeć szerzej na marketing internetowy, niż optymalizacja pod kątem wyszukiwarek i pozyskiwanie linków. Skupienie się na pozytywnych doświadczeniach użytkownika i podążanie za trendami, pozwala odnosić sukcesy w perspektywie długoterminowej.

5. Szersze wykorzystania znacznika rel=”author”

Odtwórz wideo

Czy Google będzie brał pod uwagę użycie rel=”author” na coraz większej ilości witryn, nawet na bardziej ogólnych stronach, na stronach newsowych i niebędących artykułami, np. takich jak strona domowa lub strona „O nas”?

Krótka odpowiedź brzmi „tak”. Uważam, że rel=”author” to świetna rzecz. Jeśli możemy sprawić, że zamiast anonimowej sieci będziemy korzystać z sieci, w której funkcjonuje jakiś rodzaj tożsamości, a może nawet reputacji poszczególnych autorów, to spam… Dostajemy dużo korzyści za darmo: spamerom będzie trudniej ukryć się w jakimś anonimowym zaułku sieci.

Popieram anonimowość w internecie, ale jeśli Danny Sullivan napisze coś na forum, chciałbym wiedzieć, że on jest autorem, nawet jeśli samo forum nie ma zbyt wysokiej wartości PageRank. To prawda, że byliśmy bardzo zadowoleni obserwując początki rel=”author”. Zapewne przyjrzymy się temu ponownie, zastanowimy się co możemy jeszcze zrobić, czy są jeszcze jakieś sposoby na usprawnienie tego sygnału i czy możemy go użyć w inny sposób. Będziemy nadal się zastanawiać, czy możemy stworzyć bogatszą, lepiej opisaną sieć, w której będziemy naprawdę wiedzieli…

Filozofia Google’a polega na odchodzeniu od sieci słów kluczowych ku sieci rzeczy. Mamy więc graf wiedzy zawierający informacje o obiektach w świecie rzeczywistym i relacjach pomiędzy obiektami w świecie rzeczywistym. Analogicznie, jeśli wiesz kim w świecie rzeczywistym są ludzie tworzący treść, może być to użyteczna wiedza i może pomóc wyszukiwać wysokowartościową treść. Jest to coś, czym ja osobiście jestem bardzo zainteresowany. Kilka osób w grupie ds. jakości wyszukiwania pracuje nad tym i sądzę, że będziemy się tym zajmować, aby wykorzystać rel=”author” w celu poprawy jakość wyszukiwania.

Prace nad znacznikiem przypisywania autorstwa rel=”author” ciągle trwają. Autorstwo jest postrzegane jako sygnał, który może przyczynić się do poprawy jakości wyników wyszukiwania w oparciu o reputację autorów i utrudnienie możliwości anonimowego spamowania. Google wprowadza zmiany idące w kierunku wyszukiwania semantycznego, które uwzględnia powiązania między obiektami świata rzeczywistego.

 

» Zobacz kolejny odcinek porad dla webmasterów, właścicieli witryn i pozycjonerów