wmt-noreply@google: Big traffic change for top URL… voi come rispondete?

Ricevere una mail dall’account [email protected] è uno dei peggiori modi di iniziare la giornata. Infatti l’ email di WebMasterTools da quando si è messa a segnalare i cali di traffico, di solito porta solo le brutte notizie, puntualissime e in tempo reale; riferite ai siti dei quali siete amministratori e di solito senza dare nessuna spiegazione.

Solo un messaggio inequivocabilmente antipatico:

da oggi vai molto peggio del solito. ah, buon giorno!

Messa da parte l’amarezza (alla quale siamo comunque abituati da anni di pellaccia dura)…

Voi cosa fate? Quali sono i vostri primi pensieri e punti di azione per indagare e capire il problema, e soprattutto come reagite?

alcuni spunti: copywriting della concorrenza inaspettatamente migliore del nostro per una parola chiave trainante, improvviso down del server, hub di link massivo penalizzato da panda o direttamente in blacklist se va molto male.

Tutte queste idee hanno punti d’azione molto diversi, voi ne avete altri? Ditemi come indagate 🙂

simone
appassionato di seo, linked open data e ambiente

30 Comments

  1. Copywriting della concorrenza. Di solito, se non ho effettuato cambiamenti significativi del mio HTML oppure se non ho avuto dei down del server, è il primo fattore che cerco di indagare.

  2. Troppo invitante la mail 😀
    Io per fortuna non ho ancora ricevuto questa mail in nessun sito tra quelli che gestisco, ma ne ho visto molto parlare in giro ovviamente.
    Innanzi tutti farei una verifica oggettiva: E’ VERO?. Perchè magari da analytics non vedo nessun cambiamento.
    Se fosse vero mi comporterei come nella più classica delle penalizzazioni: Vai a ritroso e ottimizzi le cose che hai cambiato. Sicuramente hai peggiorato la situazione. Nel nostro mestiere purtroppo il cambiamento non paga.
    Poi mi farei un giretto di competitor per vedere se loro sono sempre li, o magari mi hanno sorpassato in serp. Se è così mi vedo bene il codice, di cui avrò uno screenshot storico e li metto a confromto, per vedere almeno on-page se hanno modificato qualcosa.
    Poi mi vado a fare un giro su searchmetrics, ormai divenuto un mio fedele alleato, anche grazie a te che me lo hai fatto piacere al seocamp dello scorso anno, e vado ad analizzaemi la situazione backlinks. Sicuramente devo averene perso qualcuno per la strada. Si perchè la cosa interessante di cui pochi parlano, è che se qualche sito chiude o viene acquisito ( vedi ultimo posterous ), e prima o poi accade, ti perde un boato di link e…
    Poi basta dai, vanno bene per un linkino 🙂 Bacio Simone!

  3. 1) Vedo in analytics che traffico è calato, dove
    2) Vedo cambi di posizione su quelle KW
    3) Vedo cambi di posizione in generale sul sito per intero paniere
    4) Vedo chi sta sopra di me
    5) Accendo un cero

  4. Nel caso 3, se il probelma è sparso ovunque, vedo:

    1) Se ci sono stati update di sorta
    2) Se nel sito si è spaccato qualcosa
    3) Mi vedo i backlink per bene
    4) Mi vedo di non avere sezioni “fuori controllo” con numeri abnormi di pagine
    5) Mi metto a lavorare per prendere altri link

  5. Io vado a pensare sempre il peggio:

    per prima cosa site:indirizzodelsito.qualcosa

    per verificare che non sono stato lanciato nell’Inferno di Google.

    Poi utilizzo tre amici: Analytics, WebCEO, Market Samuari.

    Il primo per analizzare dove effettivamente si è verificato il calo, il secondo per capire se sono sceso di ranking, il terzo per capire se ho spinto troppo sulla Link Building. O se lo hanno fatto i concorrenti.

    A riguardo loro, se ci sono stati “sorpassi” cerco di studiare una strategia per sorpassare a mia volta, anche in base a ciò che hanno operato.

    Beh, riguardo le ultime operazioni fatte.. se sono causa del mio mal, mi rimbocco le maniche e torno a una situazione precedente di mala-ottimizzazione compiuta. A volte basta questo 🙂

  6. bellissima risposta!! e come fai a capire se sei “stato causa del tuo male” ?

  7. Grazie del complimento 😀

    Guarda, solitamente sono così secchione che mi segno le ultime (specie le grosse) modifiche effettuate.

    Se vedo un calo, valuto se non ho fatto io una cappellata, alla luce dei dati raccolti.

    Solitamente me ne accorgo subito, in quanto se le faccio, sono così grandi che impossibile non notarle

  8. vediamo se riesco a portarti più sul “concreto”… e per un sito sul quale le modifiche non le fai tutte tu? Posto che WMT ci da solo le url “problematiche” avendo questa lista come fai in tempo reale e senza “storico” ad assegnare una priorità alla lista di controlli/azioni?

  9. Ho una trigger list “standard” di passaggi da controllare, dal codice, alla presenza o meno di keyword performanti.. poi sulle URL problematiche, mi concentro su quelle che prima dell’Impact Zero erano le pagine più visitate…

  10. Ti rilancio con una contro-domanda: consigli di tool in merito :P?

  11. se l’architettura del sito prevede l’uso dei terzi livelli riesco a capire qualcosa con searchmetrics, altrimenti linkdiagnosis e in alcuni casi seomoz se devo capire i link. Se devo capire i problemi veri (tipo down del server) webmaster tools è per ora l’unico indice (anche se davvero davvero LASCO). Ora tocca a te 🙂

  12. Webmaster tools, idem con patate, per i malware lo vedo lasco anch’io.

    Per i down di server, e “mantenimento” di quel lato, la sezione apposita di WebCEO “analyize your site”. Per i link, Market Samurai, e il sempreverde Xenu per i ..corrotti. 😉

  13. Ti lancio uno spunto, magari utile o no, dipende…nessuno ha parlato di social? Share FB, +1, twitter, sicuramente fattori che, oggi, incidono sul posizionamento di una pagina/sito.

    Stammi bene, Simò! 😉

    e buon lavoro!

  14. ciao Daniele quanto tempo! Per il “peso” che mi sembrano avere al momento i fattori social forse potrebbero decretare cambiamenti di traffico, ma questa segnalazione di WMT al momento non è così frequente da rilevare cambiamenti su base oraria (come invece sarebbe se si pesassero molto i fattori social)

  15. Ciao ragazzi,

    letto tutto e devo dire che gli spunti sono interessanti tuttavia, a monte di problematiche prettamente tecniche che sono a monte del discorso, personalmente non ho mai avuto di questi “terribili” avvisi.

    A mio modo di vedere le cose, se il content è curato originalmente, se la struttura del CMS cresce nel tempo e con una dovuta frequenza, periodicamente e per tipi di argomenti, è facile vedere dei cali “fisici” reali ma per tutto il resto… se la struttura è curata come si deve, se non ci sono forzature e a monte di eventuali problemi “esterni” a quanto realizzato; non ho mai evidenziato “picchi” così drammatici.

    Per quanto gli strumenti, è vero, non esiste poi tanto di più ma è bene ricordare, ho letto che qualcuno utilizza Web CEO, esiste un tool in quella piattaforma che permetteva anche il monitoraggio del DNS. Latenze e ridondanze server, sempre da tenere sotto controllo e in casi di alcuni hosting italiani il problema è più che reale e scandaloso, non dimenticate di verificare anche la prestazione del server; in webmaster tool, esiste come verificare la risposta in velocità del server.

    Dico questo perché, mi è capitato di “spostare” semplicemente un dominio web su nuovo hosting (americano) per vedere risultati “totalmente” diversi in positivo senza per questo, aver toccato nulla di quel “CMS WordPress”.

    Alex

  16. ciao Ale. Dunque che io sappia al momento questa email viene spedita quando:

    – si perde una posizione su una parola chiave molto competitiva (per la quale magari eravamo primi). Come sai il ctr e conseguente traffico da una prima ad una seconda posizione varia tantissimo.

    – arrivano di botto un sacco di adwords sulla nostra parola chiave molto competitiva (e quindi il traffico effettivo cala obbligatoriamente, venendo assorbito da adwords)

    – google ti cambia i sitelinks senza dirti niente, e gli utenti non sono contenti di quelli nuovi e di conseguenza non ci cliccano, e il “calo” di traffico sulle sezioni è dovuto alla mancanza di supporto dei sitelinks che magari per qualche mese avevano “drogato” una sezione.

    – mega penalità/ban

  17. Io non sono affatto in disaccordo con quanto dici, tuttavia, considerando la mia esperienza, la rotazione dei sitelink a me fanno anche “piacere” perché mi danno la possibilità di evidenziare “sezioni” del sito e/o di sfruttarne il potenziale.

    Tu dici che Google non segnala la variazione, è verissimo e ho sempre detto che sei un bravissimo osservatore ma.. c’è un qualche cosa che ti è sfuggito…. hai notato come le “impression” influenzano quell’elenco?

  18. si il problema è quando hai sezioni molto corpose, sulle cui pageview hai “prezzi di listino” per te più convenienti o che riesci a monetizzare meglio. In quel caso la decisione “aleatoria” non fa piacere. Sulle impression non ho capito bene la correlazione, dato che a volte calano, a volte restano costanti (va anche detto che le impression variano moltissimo già da sole in funzione degli interessi dei lettori di google) non le userei come riferimento in generale. Ma forse intendevi qualcos’altro?

  19. Impression… Google veicola pubblicità, inutile nasconderlo e quindi… sfruttando il dato di lettura, la popolarità di titolo, sembra che il dato di impaginazione del sitelink sia influenzato da quel fattore.

    Ne sto guardando le reazioni da tempo e non nascondo che “sfrutto” anche le sezioni che Google propone nel suo indice con i sitelink. Non facile ma molto produttivo in caso di competitività elevate.

  20. Non mi è mai capitato di ricevere la notifica in questione, del resto cali di traffico ne ho fronteggiati in diverse occasioni osservandoli da Analytics… il più delle volte la prima cosa a cui penso è un down del server, specie se il calo di traffico è improvviso e senza una ragione prettamente “causale” o individuabile con un buon margine di certezza (del tipo: l’altro ieri mi sono costruito 8 mila milioni di backlink farlocchi in due ore, sarà mica questo? 😀 ). Di fatto mi è anche capitato che errori di configurazione del server su certe pagine portassero a problemi imprevisti: ad esempio, un “errorino” nel file htaccess che impediva di fatto l’accesso all’archivio delle categorie di WP. Quindi l’aspetto prettamente tecnologico è la prima cosa che vado a verificare, in questi casi.

    Invece non indago moltissimo sul copy, anche perchè è piuttosto raro che nel mio settore (web hosting) si producano testi di reale qualità (con conseguente necessità di migliorare qualcosa sul serio), anche se poi la “lotta” è sempre con queste benedette (?) article farm e francamente mi trovo un po’ spiazzato, ogni volta. Mi pare che la qualità paghi raramente, o meglio solo per le key meno “monetizzabili” mentre per quelle più appetitose per gli inserzionisti è una vera e propria giungla in cui il fattore aleatorio – non saprei come definirlo, diversamente – è spesso rilevante.

  21. Ciao a tutti.
    L’avviso allarmante di cui al topic è una novità abbastanza recente.
    Il codice di “errore” Message ID: 593f1ceb2d67 getta inutilmente nel panico webmaster e SEO.

    Da quello che ho potuto vedere nei pochi casi analizzati finora è un alert automatico: se il traffico crolla (o sale) repentinamente oltre una certa soglia prestabilità ecco che viene inviato, da marzo in avanti, quel tipo di avviso.

    Per quello che è dato capire il crollo (o l’aumento) non è valutato complessivamente, ma sulla specifica risorsa. Ovvero il traffico totale può anche essere piatto, come risultante di due risorse delle quali una cala molto e altre crescono, e nondimeno l’alert parte lo stesso, quale che sia la causa che lo genera, naturale o artificiale.
    Per naturale intendo provocata da cause che non riguardano necessariamente il rank, ad esempio un calo naturale di ricerche.
    Insomma, per come mi sembra adesso, un sito stagionale sul natale o su san valentino potrebbe avere un paio di alert (uno di crescita e uno di calo) anche senza aver avuto nessuna penalty.

    Naturalmente in moltissimi casi l’alert ha un suo perchè tecnico o di penalty e ovviamente non va trascurato. Quando arriva, l’analisi va fatta assolutamente.
    La cosa migliore, come sempre, è segmentare il traffico e confrontare le curve: se il traffico diretto cala in modo corrispondente all’organico, e il traffico diretto è “validato” (ovvero siamo sicuri che non vi confluiscano visite da altri canali), allora non è il caso di preoccuparsi oltre il dovuto, che è già tanto. 🙂

    Ciao.

  22. ciao Piersante! A giudicare da quelli ricevuti (10 fin ora) mi sembra siano partiti indipendentemente dal trend naturale delle ricerche, cioè ogni alert segnala un calo di clic su url precise di ogni dominio. Purtroppo nell’analisi dell’url su cui WMT segnala l’avviso non è per niente chiaro quale sia, tra le tante, la parola chiave più impattata (su analytics invece è evidente già dopo pochi giorni dall’alert). Sostanzialmente non capisco il perchè di questa iniziativa, dato che la stessa rilevazione in tempo quasi reale e molto più mirata, si può settare con gli alert di analytics. Forse nei prossimi mesi aggiungeranno altri tipi di segnalazioni o le renderanno più utili chissà, ogni 3/4 mesi c’è una piccola rivoluzione su WMT.

  23. Simone a me sembra che qualcuno stià scalando le SERP sulla keyword di tuo interesse (SEO) con tecniche “black-hat-seo” ma a quanto sembra l’interesse è generale… infatti il volume di ricerche per questa keywords è incredibilmente passato da circa 8.100 che io ricordi fino a qualche mese fà… fino a 110.000 solo a livello locale!
    Per me la keyword in questione non porta conversioni, perchè ricercata più dagli addetti ai lavori, non dai potenziali clienti… io ad esempio ho finito di puntarci, anche se ero a buon punto!

  24. che dire! Era ora! Finalmente un po’ di movimento in SERP 🙂 per “seo” non è mai stata una parola chiave da conversione, però quando si è in alto è una di quelle che ti fanno notare senza dubbio. Sui Blackhat… chissà magari Google inizierà ad assumerne qualcuno prima o poi!

  25. quello che noto io alla fine (a me non sfugge quasi nulla) che l’algoritmo di Google sia stato in reltà semplificato, non reso più complesso dagli ultimi updates!
    Google sembra orientato molto sulla “social search” +1 e la geolocalizzazione dei risultati… cioè le differenze ci sono se un utente è loggato!
    ma sulla normale ricerca, i classici fattori della SEO continuano a funzionare.
    Google inoltre sembra non dar peso alle segnalazioni, sull’acquisto di links, anche quanto la segnalazione è dettagliata e i links sono evidenti.
    io cmq sono sempre più convinto che quello che farà la differenza nella SEO anche nel futuro è l’ottimizzazione interna delle pagine web e i contenuti originali di qualità.
    E tutti questi tools di cui parlate non servono a nulla, sono tutti obsoleti.

  26. Beh che dire quella mail non è proprio un bell’inizio di giornata!Fortunatamente non è ho ancora ricevute e spero di non riceverne,piuttosto spero che me ne arrivi una con scritto :”da oggi vai molto bene col traffico, buon giorno :D”

Comments are closed.