Identificarea cauzelor unei penalizari Google (studiu de caz)

Identificarea cauzelor unei penalizari Google (studiu de caz)

De foarte multe ori, clientii apeleaza la servicii de SEO in momentul in care apar schimbari negative, bruste, in traficul organic sau cand eforturile din trecut nu reusesc sa produca cresteri anuale satisfacatoare.

In astfel de cazuri, inainte de a propune o solutie de remediere, este necesara o analiza aprofundata a problemei, pentru a intelege tot contextul si factorii care au generat situatia.

In continuare este detaliata procedura in cazul unui client de e-commerce international cu activitate in mai multe tari europene.

Problema prezentata: Clientul a prezentat situatia sub forma „am pierdut toate pozitiile de o luna”. Tinand cont ca nu au fost oferite mai multe detalii (daca erau cuvinte monitorizate si acestea au suferit caderi, cat de semnificative au fost aceste caderi, impactul in trafic etc) s-a trecut la pasul 2, obtinerea minimului necesar.

Minim necesar: pentru a putea avea o imagine de ansamblu cat mai buna, este necesar accesul la Google Search Console si Google Analytics. Acestea vor fi folosite pentru:

  • Analiza istorica a traficului pentru a vedea curbele de trafic si pentru a corela caderea de trafic cu posibili factori tehnici. Modificarile tehnice pot fi atat de dezvoltare a siteului cat si modificari sau introduceri de algoritmi noi.
  • Identificarea pierderilor de pozitii. Acestea se realizeaza prin intermediul Google Search Console. Tinand cont ca fereastra de timp este de numai 90 zile in Google Search Console, este foarte important ca raportarea problemelor sa se faca cat mai repede posibil pentru a putea avea acces la date relevante pentru situatia investigata.

Procedura de identificare a penalizarii Google:

1. Din Google Analytics s-a confirmat o scadere brusca a traficului in perioada raportata de client.

Graficul caderii de trafic conform Google Analytics
Graficul caderii de trafic conform Google Analytics

O scadere brusca de trafic organic, cu un grafic in forma de L, nu poate fi cauzata de aparitia unor concurenti noi sau o „invechire”a continutului ci este urmarea unor probleme tehnice.

In acest moment, s-au verificat elementele clasice care pot cauza astfel de probleme:

  • Fiserul robots.txt sa nu blocheze indexarea;
  • Prezenta meta tag-ului robots in HEAD (sa nu fie sub forma META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”);
  • Canonical tag sa fie folosit corect;
  • Response headers sa fie 200 si nu un cod de eroare (4XX sau 5XX).

In cazul de fata, toate elementele verificate au fost in parametrii optimi.

O inspectie rapida a acestor elemente poate fi facuta cu SEO Doctor pentru Firefox, extensie care semnalizeaza vizual, rapid oricare din problemele de mai sus. Pentru verificarea response headers se poate folosi Redirect Path pentru Chrome.

2. Google Search Console a reconfirmat problema

Graficul penalizarii conform Google Search Console
Graficul penalizarii conform Google Search Console

Datele reprezinta ultimele 90 zile de vizibilitate in Google la nivel de click-uri si impresii. Mergand mai departe, s-a efectuat o filtrare a vizibilitatii pentru termenii de brand (acele expresii ce contin brand-ul site-ului), graficul fiind similar, lucru posibil doar in cazul unei delistari a site-ului.

Comparand perioada post- si pre- cadere de trafic, s-a constatat ca pentru TOATE cuvintele cheie pozitiile au scazut la zero in Google Search Console, ceea ce inseamna ca site-ul era practic invizibil in cautarile Google.

3. Identificarea cauzelor

Concluziile analizei datelor din Google Analytics si Google Search Console:

  • In log-ul de dezvoltare a site-ului, nici o actiune nu putea avea un impact negativ atat de vizibil;
  • Din datele publice (Google Blog/Forumuri de specialitate) despre modificarile de algoritmi nu a reiesit nicio schimbare globala in perioada penalizarii;
  • In Google Search Console nu exista niciun mesaj despre o penalizare manuala;
  • Site-ul nu era raportat ca fiind virusat.

Asadar, toate datele obtinute au confirmat prezenta unei penalizari, astfel ca s-a trecut la identificarea cauzelor.

Plecand de la informatiile obtinute in procesul de analiza, cea mai plauzibila ipoteza de lucru a fost ca site-ul a fost accesat de catre un tert si ca in pagini exista elemente care il fac sa fie privit ca si daunator pentru vizitatori.  Scopul actiunilor urmatoare a fost identificarea acestor elemente.

Analizand gradul de indexabilitate al siteului, s-au observat urmatoarele aspecte:

  • Sitemap-ul XML al siteului continea 835 de produse din care numai 13 erau marcate ca si indexate;
  • Numarul de pagini indexate era de 945.000.

Plecand de la aceste date, a devenit clar ca intr-un fel sau altul numarul de pagini a fost crescut artificial, iar paginile noi „sufocau” continutul original. Acest fapt a dus la penalizarea existenta. Pentru a putea readuce numarul de pagini la un numar normal, am analizat sectiunea de Parametrii URL din Google Search Console.

Aici s-a observat ca numarul mare de pagini artificial indexate erau URL-uri parametrizate in sectiunea de cautare a site-ului. Am luat o pagina aleatoare de cautare si am vizualizat-o „prin ochii” Googlebot („fetch as Google” din Google Search Console). Astfel a fost vizibil codul malitios servit catre crawler si invizibil pentru userul obisnuit.

Pasii urmatori au fost:

  • Identificarea de catre un programator a codului responsabil din cadrul siteu-lui si eliminarea acestuia;
  • Blocarea parametrilor la indexare in Google Search Console;
  • Blocarea la indexare a oricarui URL de cautare folosind robots.txt;
  • Dupa implementarea elementelor de mai sus, s-a folosit din nou preluarea ca si Googlebot si trimiterea spre indexare a homepage-ului si a paginilor catre care acesta are linkuri.

Dupa o saptamana de la ultima activitate, analiza datelor din Google Search Console a aratat o revenire a traficului in parametrii normali.

Grafic revenire trafic
Grafic revenire trafic

Concluzii:

  • Monitorizarea zilnica a performantei, disponibila in pachetele de SEO oferite de catre Netlogiq ar fi permis identificarea problemei mult mai rapid;
  • Caderile de trafic organic cauzate de probleme de ordin tehnic sunt reversibile in timp scurt atata timp cat acestea sunt identificate corect si sunt aplicate solutiile adecvate .

Scrie un comentariu

Esti gata sa incepem?
Contacteaza-ne pentru o discutie initiala
Contacteaza-ne