Un proces esential in lansarea unui site, si aproape intotdeauna ignorat, este verificarea din punct de vedere SEO. Mai jos este o lista de elemente care, odata verificate, fac tranzitia la un site nou mult mai usoara.
Alegerea domeniului: nu este vorba de numele de domeniu, ci de alegerea unei variante cu sau fara www. Odata alegerea facuta, trebuie verificat daca redirecturile functioneaza corect si se foloseste 301 pentru aceasta.
Robots.txt: este un element absolut esential la orice site, fiind primul fisier cerut de catre programele de indexare inainte de orice sesiune de indexare. Lipsa acestuia poate in multe cazuri sa duca la blocarea indexarii. Din aceasta cauza, un fisier gol robots.txt este mai util de cat lipsa acestuia. Daca fisierul este prezent, acesta trebuie sa:
- Contina un link catre sitemap-ul XML al siteului;
- Sa blocheze doar directoarele sau URL-urile care nu se doresc indexate;
- Sa nu fie acelasi robots.txt din mediul de dezvoltare care previne indexarea site-ului.
Robots Meta Tag: unele platforme (precum WordPress) au o optiune in setari care previne indexarea site-ului atunci cand este in mediul de dezvoltare. Aceasta se manifesta prin prezenta in codul sursa a urmatoarei linii: <META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”> Daca este prezenta, aceasta trebuie eliminata
Indexare de test: pentru a identifica usor erorile ce pot aparea in siteurile mari, se pot efectua crawluri atat cu Xenu Link Sleuth (pentru identificarea de linkuri gresite) cat si cu Screaming Frog. Screaming frog, desi este un instrument contra cost, poate fi folosit in mod gratuit pentru 500 URL-uri. Acestea sunt suficiente pentru a avea o idee generala asupra erorilor. Ce erori pot aparea:
- Linkuri gresite (catre domeniul de dezvoltare);
- Pagini inexistente;
- <title> meta description lipsa sau duplicate.
Sitemap XML: Acesta este esential in transmiterea de informatii despre arborescenta si dimensiunea site-ului catre motoarele de cautare. Este necesar ca paginile sa aiba prioritate distincta in functie de pozitia in site, la fel si frecventa indexarii. Un sitemap XML facut defectuos nu duce la penalizari, dar va fi ignorat.
Google Analytics: Din primele ore de la lansare, site-ul trebuie sa aiba Google Analytics instalat si functional. Verificarea se face atat cautand codul de Google Analytics in codul sursa, cat si folosind sectiunea de live view. In acest sens, trebuie facute cateva vizite de test pe mai multe pagini si verificat daca acestea sunt raportate corect. Daca este vorba de un site de ecommerce, atunci este necesar sa se plaseze si cateva comenzi de test pentru a verifica daca produsele, cosul si valoarea acestuia sunt inregistrate corect.
Webmaster Tools: Imediat dupa lansarea site-ului, acesta trebuie inregistrat in Google Search Console. Toate variatiile (cu si fara www) trebuie inregistrate si aleasa versiunea preferata. Pasii urmatori sunt:
- Adaugarea sitemap-ului XML si trimiterea acestuia la procesare;
- Fortarea indexarii prin functia „Preluare ca si Google” pentru homepage si pagini de interior si trimiterea acestora catre Google;
- Monitorizarea zilnica cel putin o saptamana (recomandat o luna) a erorilor raportate.
Page Speed: Trebuie verificate cel putin 3 pagini: homepage, o pagina de categorie si o pagina de produs/articol. Aceasta este necesar pentru ca scoruri mici pot fi remediate rapid prin activarea de functionalitati ale siteului sau serverului.
Te invitam sa citesti primul capitol din Ebook-ul Ghidul marketingului online, in care iti prezentam cum functioneaza motoarele de cautare:
- Cum verifici dacă agenția ta SEO te ajută la optimizarea traficului sau are un efect negativ asupra business-ului - 11 februarie 2020
- Identificarea cauzelor unei penalizari Google (studiu de caz) - 11 noiembrie 2016
- Impactul modificarilor din Adwords asupra traficului organic - 18 august 2016