Autor artykułu na SEOmoz przedstawia schemat postępowania w sytuacji, gdy wymagane jest szybkie zidentyfikowanie przyczyn problemów z serwisem oraz ustalenie:

  • Dlaczego podstrona nie została zindeksowana?
  • Dlaczego podstrona nie pojawia się w wynikach wyszukiwania?
  • Czy podstrona została ukarana?
  • Czy nie ma miejsca duplikacja zawartości?

Analiza przyczyny problemu może przebiegać w następujących krokach:

  1. Sprawdzenie czy serwis został zindeksowany.
    W tym celu najlepiej wykorzystać komendę site: dla głównej domeny witryny (np. site:example.com).
  2. Sprawdzenie czy strona została zindeksowana.
    Zakładając, że Google wie o istnieniu serwisu, należy sprawdzić, czy konkretna podstrona widnieje w indeksie, w tym celu również należy wykorzystać zapytanie site: (np. site:example.com/folder/strona.html). Jeżeli strona nie jest zindeksowana należy rozszerzyć zapytanie do całego katalogu (np. site:example.com/folder) i sprawdzić czy zostały zindeksowane jakiekolwiek strony w nim umieszczone. Jeżeli podstrona nie jest zindeksowana można pominąć kolejny krok.
  3. Sprawdzenie czy strona rankuje.
    Jeżeli strona jest zindeksowana, ale nie widać jej w SERP, należy wykonać dokładne wyszukiwanie (np. poprzez umieszczenie w cudzysłowie fragmentu zawartości tagu <title>). Jeżeli nadal nie będzie można znaleźć strony, to trzeba połączyć zapytanie site: dla domeny z tytułem strony (lub jej fragmentem) umieszczonym w cudzysłowiu.
  4. Sprawdzenie błędów robots.txt.
    Gdy serwis został częściowo zindeksowany, ale problematycznej strony nie ma w indeksie, należy przeanalizować zawartość pliku robots.txt. Mimo, że błędy w pliku robots.txt są rzadkością, to należy upewnić się, że strona nie została przypadkowo zablokowana przed dostępem robotów wyszukiwarek. Zazwyczaj plik ten znajduje się w katalogu głównym (np. http://www.example.com/robots.txt), tak więc często można bez dostępu do serwera sprawdzić jego zawartość  i upewnić się, że żadna z reguł nie blokuje dostępu do sprawdzanej strony.
  5. Sprawdzenie meta tagu robots.
    Innym przypadkowym błędem może być umieszczenie meta tagu robots o wartości ‘noindex‘. Chociaż wydaje się to mało prawdopodobne, to może być spowodowane np. złą instalacją systemu CMS.
  6. Sprawdzenie błędnych rel=”canonical”.
    Atrybut rel=”canonical” jest zazwyczaj dobrym rozwiązaniem, pozwalającym uniknąć zjawiska duplikacji treści. Problem może pojawić się wówczas, gdy linki kanoniczne ustawiane są dla stron o różnej zawartości, ograniczając tym samym liczbę zindeksowanych stron serwisu. Ten problem może być tak samo jak poprzednio wynikiem błędnej instalacji systemu CMS, bądź jakiegoś dodatku.
  7. Sprawdzenie błędnych nagłówków i przekierowań.
    W niektórych przypadkach strona może zwracać błędny nagłówek, kod błędu (np. 404) lub powodować źle skonfigurowane przekierowanie. Istnieje wiele darmowych narzędzi online pozwalających przetestować nagłówki wysyłane przez stronę (np. http://web-sniffer.net/).
  8. Sprawdzenie występowania zewnętrznej duplikacji zawartości.
    Aby sprawdzić czy treść sprawdzanej strony została skopiowana z innego bądź do innego serwisu, należy dokonać dosłownego wyszukiwania (w cudzysłowiu) unikalnie brzmiącego fragmentu zawartości. Jeśli w wynikach pojawią się inne witryny, to strona może być oznaczona jako duplikat treści.
  9. Sprawdzenie występowania wewnętrznej duplikacji.
    Wewnętrzna duplikacja ma miejsce zazwyczaj wtedy, gdy robot wyszukiwarki znajduje tę samą stronę pod różnymi adresami URL. Zwykle w SERP uwzględniany jest tylko jeden adres URL (nie zawsze ten oczekiwany). Do znajdowania wewnętrznej duplikacji można użyć zapytania site: wraz z unikalną frazą z tytułu strony umieszczoną w cudzysłowiu. Można także dodać parametr intitle:. Kilka takich samych stron z różnymi adresami URL lub ograniczenie podobnych wyników wyszukiwania w SERP Google może wskazywać na powielanie treści wewnątrz serwisu.
  10. Ocena jakości anchor tekstów.
    Open Site Explorer (http://www.opensiteexplorer.org/) w zakładce „Anchor Text Distibution” umożliwia szerokie spojrzenie na dystrybucję anchor tekstów. Należy sprawdzić, czy rozkład anchor tekstów wygląda naturalnie. Nienaturalny rozkład linków, jako przejaw manipulacji linkami, może być przyczyną ukarania strony przez Google.
  11. Ocena jakości profilu linkowania.
    Tutaj również przydatne jest narzędzie Open Site Explorer. Wyniki należy ograniczyć do „Followed + 301„, „External Pages Only„, „All Pages On The Root Domain„. Przejrzenie raportu pozwala na wstępną ocenę jakości linkowania na podstawie takich elementów, jak podejrzane anchor teksty, linki wbudowane w ramki z reklamami lub płatnymi linkami, linki w stopkach, itp. Pełna analiza profilu linkowania zajmuje dużo więcej czasu, ale często nawet pobierzne spojrzenie na wyniki pozwala ocenić czy linki nie pochodzą z kiepskiej jakości systemów wymiany linków. Zainteresowani mogą zapoznać się z interesującym schematem postępowania przy analizie profilów linkowania w artykule „Analiza profili linkowania serwisów internetowych z branży finansowej” na oficjalnym blogu Performance Media.

W komentarzach użytkownicy wskazali na narzędzia, których używają do takiej analizy:

  • dodatek Firefox SEO Doctor,
  • narzędzie do wykrywania spamu i ukrytych treści,
  • możliwość wykorzystania paska narzędziowego Web Developer w analizie on-site

Niektóre z opisanych powyżej punktów mogą być poszerzone o bardziej dogłębną analizę, ale już szybkie przejście tych kroków pozwala często na odnalezienie problemu dotyczącego konkretnej podstrony.

(Źródło: http://www.seomoz.org/blog/10-minute-missing-page-audit)