Aggiornamento algoritmo Google: Panda

Nome in codice… panda.

L’algoritmo di Google si aggiorna e promette di colpire le content farm; facciamo un passo in dietro e spieghiamo: cosa sono le content farm?

Generalmente, è possibile definire una Content Farm,  quell’azienda che si occupa di generare “contenuti” testuali, commenti, racconti, recensioni, ecc.

Gli articoli sono scritti da writers, spesso dietro compenso ma si sa, in cambio di contratti di formazione, collaborazioni esterne, stagisti ecc.. I contenuti vengono utilizzati in siti web, CMS, portali…

Il precedente update denominato “Caffeine” implementato da Google, ha avuto come obbiettivo il miglioramento del processo di indicizzazione aumentando notevolmente la velocità di aggiornamento e la quantità di contenuti “freschi” presenti nell’indice. Nel tempo sono comparsi real time, instant e tanti altri strumenti derivanti anche dall’evoluzione del web influenzato dal micro blogging come Twitter.

Da questa evoluzione, la posizione della politica Google sembrava essere quella di affinare e migliorare la velocità di aggiornamento dei contenuti provenienti da piattaforme esterne al motore di ricerca, una dinamica evolutiva seguendo anche le tendenze della rete globale. Ben presto, l’ indice e diventato pieno e quindi… si doveva trovare un metodo per “tagliare” i risultati, pulire gli indici, abbassare la quantità di pagine lette su siti segnalati “spam” o ritenuti non rilevanti per l’utente finale.

Fin qui tutto chiaro, ma cosa promette di fare questo Algoritmo Google Panda?

Le dichiarazioni ufficiali annunciate da Matt Cuts e Amit Singhal, in prima battuta, sembravano essere “limitate” solo ad azioni di pulizia dallo spam, come farlo in maniera logica e automatica? Come fare ad individuare contenuti provenienti da content farm rispetto a contenuti di qualità?

Sembra che la linea d’azione dichiarita anche da Danny Sullivan è stata quella di “utilizzare valutatori umani” che, a fronte di determinate domande, avrebbero stabilito quale sito è autorevole e quale no, se la presenza di “annunci” era eccesiva ecc… per poi confrontarle con le metriche rilevate dall’implementazione fatta negli indici.

The dark side of Google:

L’implementazione di queste modifiche ha logicamente creato delle grosse variazioni negli indici, sovvertito classifiche e quasi sempre ha favorito le “grandi” risorse rispetto a siti più modesti ma di indiscussa qualità di contenuti. Osservando i dati che fornisce Analytics, gli effetti sembrano essere più devastanti di quelli prospettati dagli ingegneri Google.

indice algoritmo Google PandaLo screenshot a lato, fa riferimento a un sito web in lingua italiana nel settore turistico su piattaforma WordPress su hosting americano (Columbus, Ohio Stati Uniti),  la variazione nei dati è evidente e da qualche settimana monitoravo con attenzione le variazioni nei risultati.

Come si evince dai grafici, qualche cosa ha determinato un “taglio” netto della presenza delle pagine negli indici con una rilevante perdita di pagine lette e una strana, quanto mai sbalorditiva frequenza di rimbalzo elevata. Ma Panda non doveva agire su dei contenuti in lingua anglofona per poi agire anche su tutte le altre lingue?

Se ne deduce che il taglio operato è relativo alla location della servers farm e non ai contenuti e Google su questo e di questo, attraverso anche i canali ufficiali, non dice nulla tuttavia, anche per altri siti web, i dati sono simili e partono tutti dallo stesso giorno, stesse perdite, uguali risultati.

Algoritmo Panda GoogleInutile dire che le discrepanze tra quello che scrivono i “ragazzi” di Google e i dati che si leggono, creano non pochi dubbi sulla serietà di Google e dei suoi ingegneri.

Volendo fare una analisi strettamente operativa, “segare” lo spam in questa maniera, non risulta affatto coerente se negli indici, attualmente, la rilevanza maggiore è data da quei siti con PR (PageRank è un algoritmo di analisi) molto elevato, basati principalmente da una link building selvaggia, duplicazione di contenuti o ripubblicazione di contenuti RSS di feed blog.

Se questa è la qualità a cui punta Google, il lato oscuro di tutta questa operazione sembra essere abbastanza chiara e di marketing: oggi che il mio sito non è più così rilevante, riceve meno visite, per essere competitivo, sono costretto ad acquistare link sponsorizzati e dunque… AdWords e poco vale se, nell’indice organico, il sito che compare nelle prime posizioni, pubblica i titoli del mio Feed RSS.

Combattere lo spam? Una scusa eccezionale se non si opera su Link Building e Google ben conosce la situazione mondiale e la falsità che è presente nei suoi indici di ricerca. Si sarebbero dovuti aggiornare i fattori di valutazione per i link, per quella che può essere la genuinità dei contenuti, della semantica (algoritmo Orion), il confronto con altri motori di ricerca come Blekko, Bing, risulta essere veramente imbarazzante e legata a un colosso che non riesce con questo algoritmo modificato a seguire il web ma imporlo tecnicamente e commercialmente a suo unico favore.

La reattività di un articolo all’interno dei social, del real time… della geolocalizzazione, insomma, i mezzi non mancherebbero per gestire in maniera diversa quelli che sono i contenuti organici tuttavia, più che combattere il link selvaggio, il seo bombing, i contest di posizionamento (veri e propri siti di spazzatura), si tagliano un poco tutti e questo perché, se a Google dichiarano un 12% dei loro risultati, non è specificato che per il tuo sito, può essere anche un dato rilevante e ben oltre un qualsiasi catastrofica immaginazione.

I commenti letti anche sul blog ufficiale di Google parlano chiaro, se si voleva operare in maniera selettiva, i metodi forse ci sono ma non sono stati applicati; soluzione a una crisi mondiale che costringe Google a fare tagli alla Kung Fu un algoritmo (Panda) per guadagnare di più dai servizi come AdWords? Lecito pensarlo; tutto è possibile!

Ho letto tanti commenti che mi hanno fatto veramente riflettere, persone che lamentavano oltre il 50% di perdite di visite ma quello che ha dello stupefacente, è lo stesso Google che ha stimato una perdita pari quasi al 10% degli occupati nel settore del web proprio per i cali di accessi, visibilità ecc… Google a favore degli utenti? Google amico dei professionisti seri che rispettano le policy, producono un web pulito e originale?

Non saprei ma io vedo sempre meno remunerativo e logico seguire un solo soggetto commerciale e mi ripeto, i professionisti dovrebbero applicare il posizionamento dando la stessa valenza anche a Bing, Yahoo!, Blekko ecc.

Cosa accadrà quando l’algoritmo verrà implementato anche in google.it? Ne vedremo delle belle!!!

Alessandro Vitale

DBATrade Web Marketing

Google Panda nuovo Algoritmo


20 Comments

  1. Letto tutto con attenzione, ma non essendo io un esperto, forse uno da poco appassionato, temo che il peggio in tutti sensi debba ancora arrivare.

    E secondo me bisogna pure dare un anno di tempo al nuovo CEO per capire che strada vuole prendere. Al momento G non è piu il bicchiere d’acqua fresca di qualche anno fa, ma assomiglia sempre piu alla tv del web, stretta tra necessita di fatturato e quella di non perdere terreno verso il nuovo che avanza.

    Gregorio

  2. Si Gregorio,

    io sono convinto che del gran parlare… si tratti solo di depistaggi e poco di più; i commenti che ho letto sul blog ufficiale dicono anche di più ed è chiaro che Mr. G non è più quel bacino di innovazione come vorrebbero far credere.

    Negli stessi commenti, è possibile leggere di siti russi colpiti da questo cambiamento, siti italiani di cui ho parlato anche nel mio articolo… insomma, c’è poco da stare allegri anche se… il rovescio della medaglia c’è: utilizzare la concorrenza e livellare (finalmente) un poco tutto il sistema di ricerca in internet.

    Per fare subito un riferimento valido, mai provato a cercare una immagine in G e poi in Bing? Ecco risposto fattivamente anche se si copiano a vicenda ed è fuori discussione, se ci fossero più risorse e una maggiore attenzione anche ad altri motori di ricerca più che il “mostro” stanco che fa Kung Fu per portare incassi “freschi”… allora si che le cose sarebbero più equilibrate e interessanti anche per gli addetti ai lavori come me.

    Grazie del tuo commento che apprezzo e condivido!

    Alex

  3. Per quanti mi hanno scritto anche via Twitter…

    questo è quello che afferma Google attraverso il suo blog UFFICIALE:

    To start with, we’re launching this change in the U.S. only; we plan to roll it out elsewhere over time. We’ll keep you posted as we roll this and other changes out, and as always please keep giving us feedback about the quality of our results because it really helps us to improve Google Search.

    Le osservazioni fatte e descritte nell’articolo non sono frutto di fantasie ma di un effetto (molto probabilmente) legato solo alla location del server negli U.S. ma questo determina con una certa sicurezza che il “Kung Fu” applicato dal Panda… è indiscriminato e non selettivo. Google alle domande non risponde, non ci resta che aspettare!

    Alex

  4. Ciao Alex,

    ho letto con attenzione il tuo “pezzo” e senza ripetere quello che hai chiaramente detto, ho capito tre cose fondamentali:

    1. Google adotta questi tagli agli accessi mascherandoli con una necessaria “operazione pulizia contro lo spam” colpendo indiscriminatamente ed in modo ingiusto anche i siti di qualità.
    2. Alle spalle del punto 1 ci sono interessi commerciali della stessa Google che se ne “fotte” della qualità e dell’onestà di siti che lavorano seriamente e fa una operazione drastica mistificandola con un Panda che, nella realtà, nasconde i nuovi terroristi del web che scassano tutto e costringono a suon di quattrini a questo messaggio: vuoi posizionamenti ecc… anche se proporrai monnezza, pagami e ti sbatto in prima linea… alla faccia di tutte le balle che ci raccontato fino al giorno prima che quattro nuovi giovani “ingeneri google-terroristi” hanno messo in pratica tale l’attacco finalizzato ai quattrini e mistificato con l’uso del simpaticissimo ed dolce Panda… e per questo proporrei in prima battuta una immediata sanzione per l’uso indiscriminato e non attinente di tale simbolo…
    3. Insomma visto che i signori di Google fanno i furbi e pensano che noi utenti del web siamo dei deficienti, imboccano la strada del ricatto a suon di quattrini per far cassa alla faccia di tutto e di tutti ed allora il mio messaggio è:

    reagiamo tutti con la stessa “violenza”, rispondiamo al “terrorismo mafioso di Google” con civiltà democratica ed invito tutti a non usare più questo motore di ricerca compreso la posta elettronica ecc. visto che ci sono altrettanti motori di ricerca come Bing e Yahoo che sono altrettanto validissimi ed avviamo il processo di ridimensionamento del colosso che ha ingannato tutti e che mira al ricatto a suon di quattrini…

    Concludendo, la giusta reazione contro Google é:

    Boicottatiamoli, boicottiamoli, boicottiamoli!!!

    Grazie per avermi concesso di dire la mia e spero che la dura polemica sia recepita nel messaggio che vuole essere una dichiarazione di “guerra dura a Google”, picchiando forte nei loro fianchi ed avviando sui social network un martellamento costante per demolirli… e non è detto che non ci si possa riuscire, morto Google ci sono sempre validi strumenti come Bing, Yahoo ecc…

    Motore avvisato…

    Ciao a tutti!
    Giacomo

  5. Si Giacomo,

    posso essere d’accordo ma in parte; che ci sia un problema di spam, è fuori discussione tuttavia… il potere Google lo ha e non è facile cambiare le tendenze.

    Che quanto operato sia corretto o chiaro, questo non lo posso giudicare ma personalmente credo che in chiave di sviluppo, come innovatori e padroni della ricerca, questo algoritmo lascia troppe “ombre” sull’operato di Big Google.

    Che sia una azione atta a risolvere i problemi legati alla duplicazione di contenuti, testi mirati e vuoti solo per accrescere il posizionamento o “copiare bene” per raggiungere determinate posizioni di predominanza e visibilità, ci può stare ma quanti finiranno in questo pentolone pur rispettando le policy?

    Non è dato saperlo e per dare una maggiore valenza a queste osservazioni, poco o nulla hanno fatto per l’accrescimento o il rispetto tecnologico “suggerito” dagli standard web dettati dal W3C.

    Stiamo a vedere cosa accadrà, magari correggeranno ed affineranno i loro risultati “eliminando” realmente quei siti che brillano di luce altrui come gli aggregatori feed, quei siti di compra vendita che non sono di certo “utili all’approfondimento” o ancora, in chiave prettamente non moderna, i comunicati stampa che si leggono ovunque duplicati in malo modo.

    In questa chiave, io resto deluso e preoccupato, la ricercata di “qualità” che il motore di ricerca e i suoi ingegneri dichiarano essere obbiettivo di questo aggiornamento, al momento attuale da ragione solo ad alcuni che spesso, violando tutte le logiche di originalità e capacità tecniche di fare un web bello ed originale, ancora si possono avvalere di un linkaggio selvaggio che determina posizionamento.

    Che Panda e il loro Algoritmo siano il futuro non credo, fino a quando i fattori di categorizzazione sarà fortemente influenzato ed influenzabile da tecniche riconosciutissime (link building ovvero PR), ci sarà poco da fare.

    Speriamo nella ricerca e lo sviluppo di altre fonti “pulite” e meno monopolizzatrici di Google.

  6. Ok Alex,

    ti ringrazio per la risposta e scusami se ti ho scritto da quasi profano della materia che è di non facile comprensione dal punto di vista tecnico, per i non addetti ai lavori, ma permettimi di dire da napoletano, quale ho l’orgoglio di essere: “cà nisciuno è fesso!!!

    Chi vuole capire capisce e vedo che sei molto cauto e quasi devoto a Big Google e non mi hai risposto nulla sulla rappresaglia che il mio istinto mi spinge a sferrare… certo una pagliuzza contro il gigante, ma non so… i monopoli sanno sempre di dittatura e questo non mi sta bene… quindi fai bene professionalmente ad attendere e dare il tempo a questi signori di modificare le loro str… mirate e fare in modo che rivedano correttamente le loro decisioni.

    E bada bene che considero la tua persona professionalmente attendibilissima e validissima, pertanto il mio messaggio e la mia comprensione è rivolta a tutti quei professionisti “seri” come te che, dalla sera alla mattina vengono “distrutti” da chi tira le file del gioco in monopolio e cerca di farvi fuori tutti, affermando che devono campare solo loro… scippando lavoro a tanta gente… Andavano invece modificate altre cose, tra cui ridimensionare quei siti che vivevano di luce altrui.. ecc…

    Stiamo a vedere cosa accadrà, ma prima di farsi piovere addosso, meglio pensare ad un piano b e poi ricordiamoci che google esiste perché ci siamo noi navigatori del web che lo facciamo esistere… ergo abbiamo una grande arma a disposizione e possiamo usarla nel modo giusto…

    Chi vuole capire capisce certamente!

    Grazie!
    Giacomo

  7. Hehehe, Giacomo!

    La rappresaglia è attiva da quando ho cominciato a fare questo lavoro; è un ambito del web che ho provato a descrivere in un mio precedente articolo intitolato “Il Search Engine Marketing, il Copywriting e il SEO” le differenze, gli acronimi e quanto necessario per inquadrare l’ambito d’applicazione delle professionalità come la mia.

    I markters professionali “seri” come tu li hai descritti, hanno ben chiaro il concetto di “posizionamento nei motori di ricerca” e non solo in Google; per dirne un’altra che chiarisce ancora di più il concetto, non ho fatto uso e non ne vorrò mai fare, di tutti quegli strumenti messi a disposizione dai motori di ricerca PPC (Pay Per Click) o link sponsorizzati che spesso compaiono di fianco all’indice dei risultati dei motori di ricerca.

    Il vero posizionamento è quello organico, strutturale e non a pagamento ma è comprensibile, quelli sono mezzi fondamentali per fare dei guadagni e non li contesto tuttavia, mi piacerebbe vedere maggiore “equità” e qualità negli indici organici. Lo spam e i fattori d’influenza come i link venduti “tanto al chilo”, veramente fanno rabbrividire e gli utenti, sono i più danneggiati.

    Mi piacerebbe essere considerato come un “quality rater” di Google e degli altri motori di ricerca, il nostro lavoro parte dal progetto, passa per il marketing, sposa il design, il copywriting per arrivare ai SEO; questo fa e crea un web di qualità; chi non ci si attiene e fa il furbo, è solo una questione di tempo poi… le cose cambiano e i problemi arrivano al pettine.

    Cauto? Venero Google? Ma chi io? No Giacomo, ti stai sbagliando, la mia attenzione è rivolta ai clienti, alle persone che hanno rispettato quanto dettato dai motori di ricerca e risposto a tutte le richieste d’aiuto di Google; perché rispondere con un abominevole Panda senza rivolgersi ai professionisti per “pulire” gli indici da siti fatti male?

    Che dire di più? Aspettiamo e vediamo, io uso Google come Bing e Yahoo!, mi piace Blekko e spero che quanto operato in questo algoritmo, svegli i professionisti a guardarsi attorno e staccare gli occhi da Google.

    Alex

  8. Google Panda Algorithm non è una trappola:

    Google Panda

  9. Ciao Alessandro,
    ho letto con interesse il tuo articolo e i commenti, ma sinceramente ho qualche dubbio.
    Guardando i dati di Google Analytics che hai riportato quello che noto non è una diminuzione delle visite (che rimangono costanti) ma un aumento delle frequenza di rimbalzo a partire da una certa data, questo come conseguenza ha una diminuzione del numero di pagine visualizzate per ogni visita e quindi una diminuzione delle pagine visualizzate, tutto questo a parità di visite o (sembra dal grafico) con un leggero aumento di visite.

    Gli effetti della modifica dell’algoritmo Panda possono aver effetto sulle SERP, modificando le posizioni nei risultati di ricerca favorendo un sito o un altro.

    Ora questo sembrerebbe NON essere successo per il sito di cui riporti le statistiche, in quanto appunto le visite sono rimaste le stesse.

    Inoltre l’aumento della frequenza di rimbalzo non può essare certo causato da Google, Google al massimo può portare un utente al sito, ma quante pagine visualizza l’utente dipende da quello che trova nel sito (contenuti).

    Inoltre andrebbero analizzate le visite che ha portato google nello stesso periodo per capire se effettivamente sono scese o meno e analogamente quali keywords hanno portato visite.

    L’impressione mia, senza avere dati, è che probabilmente o c’è stato un problema tecnico su quel sito, l’aumento delle frequenza di rimbalzo potrebbe essere stato causato da questo, oppure e più probabile, visto che il tempo medio sul sito non è praticamente variato, le persone hanno trovato interessante la pagina dove sono arrivati ci sono rimasti il tempo per leggerla ma poi non hanno trovato link correlati interessanti e quindi hanno abbandonato il sito dopo quella prima pagina visualizzata.

    Dai dati che hai proposto non vedo il collegamento con un eventuale modifica delle SERP dovuta all’eventuale applicazione dell’algoritmo “panda”.

    Dai risultati che ottengo a livello di posizionamento, quello che posso portare come mia esperienza è che Google, a mio parere, sta dando sempre più importanza al comportamento degli utenti quando arrivano su un sito.
    Probabilmente ha modificato il peso di certi parametri (il tempo di permanenza, il numero di pagine visualizzate ecc.), in alcuni casi probabilmente usa i dati di analytics, in altri dove analytics non è presente usa probabilmente la google toolbar o la modalità di utilizzo da parte degli utenti delle SERP (effettuo una ricerca, clicco su un risultato, torno indietro e clicco su un altro risultato o effettuo un’altra ricerca, è chiaro che questo è un “voto” negativo per il primo sito visualizzato).

    I risultati che ho io dimostrano che sempre meno contano il PR e i link verso il sito. Conta sempre più fare in modo che gli utenti rimangano sul proprio sito e che magari ci tornino direttamente (o come fanno molti mettendo l’indirizzo all’interno della casella di ricerca di google, anche questo è un dato interessante).

    A presto
    John24

  10. Ciao Giovanni,

    mi scuso per la lentezza di moderazione ma come immaginerai, si guarda di tutto meno che il proprio blog!
    Riguardo le tue considerazioni, sono le stesse che ho fatto io guardando quei dati, va da se che se è un solo sito web, ti posso dare ragione e magari, mi metto d’avanti a uno specchio dandomi la mano ma, quando sono più siti che reagiscono allo stesso modo, il fatto ti pone d’avanti a un bivio… Ho sbagliato io qualche cosa o c’è qualche cosa che è cambiato?

    I dati del post sono parziali, hai ragione, con quanto pubblicato non è facile nemmeno fare più supposizioni tuttavia, sono dati fondamentali che mi hanno portato a fare il ragionamento che ho scritto. Tecnicamente, dalla data in cui ho scritto quel post, ormai dopo una decina di giorni che cercavamo da più parti di capire quale fosse il nostro errore, abbiamo capito che si trattava di ben altro quando anche altri siti web hanno cominciato a soffrire degli stessi dati.

    I vantaggi ci sono, è indiscusso che il PR e i fattori di link si sono notevolmente abbassati tuttavia, c’è da fare anche una considerazione diversa della diffusione del feed, del PR che su quel sito specifico di cui ho pubblicato qualche dato, si è abbassato di 2 punti e tutti i BL si sono modificati. Conseguenze in questo caso, ne hai per forza ma con un vantaggio in serp non da poco; se prima avevi un numero di risultati per le parole chiavi (o combinazioni di parole/frasi) dopo l’applicazione dell’algoritmo Google Panda, ne hai veramente molti in meno ed è strabiliante vedere che dove quel sito, soffriva dietro risultati di raccoglitori di feed, link e quant’altro tu ben conosci, oggi risulta avanti e nei primi posti.

    Ti dirò di più, gli stessi dati Analytics li ho messi in dubbio e continuo a monitorarli anche con altri software perché non risultano stabili, la frequenza di rimbalzo sta scendendo progressivamente (il che significa che realmente non ci sono problemi tecnici), il numero di pagine sta riprendendo progressivamente il suo andamento “storico” del CMS/blog.

    In una analisi assurda, ho fatto paralleli anche di traffico di referrer per misurarne la differenza del prima e del dopo, la variazione rispetto ad alcune rinomate risorse c’è e non è poco, somma il tutto ed ecco spiegati quei dati. Per gli atri siti che sto monitorando, c’è solo qualche perplessità di come Google riesca ad individuare la pagina “originale” da contenuti “rubati” o duplicati, allo stesso modo, ho notato che anche le traduzioni sono state in qualche parte “lette” come contenuto non originale e questo mi ha stupito non poco immaginando un possibile automatismo di uno strumento del genere.

    Tutto sommato, oltre lo svarione evidente iniziale (pensa che Wikio U.S. ha perso il 90% del traffico) i dati sono tutti in ripresa e ti posso garantire che è un salto nel vuoto a denti stretti per non toccare il codice e cercare di migliorare e/o fare ma… sto veramente stringendo i denti e se hai la coscienza in ordine e sai di aver fatto tutto sempre rispettando le policy dei motori di ricerca, è solo una questione di tempo, lo stesso tempo che oggi mi sta dando ragione.

    Per fare una “contro analisi” su quello che hai affermato correttamente, non ti sto affatto giudicando credimi, in caso di un errore tecnico, una qualche limitazione, plugin che non funziona, errore di codice ecc… Yahoo! e Bing non hanno fatto una piega, dati sempre costanti e invariati nel tempo.

    Spero di averti fornito ulteriori dati per comprendere la situazione che presto o tardi, vedremo anche nelle serp di Google.it e non sarà di certo facile capirne gli effetti e la trasformazione.

    Ti ringrazio del commento,
    Alex

  11. Ciao Alessandro,
    sinceramente anche dopo la tua risposta c’è qualcosa che mi sfugge.
    L’applicazione dell’algoritmo può avere come effetto la modifica delle serp e di conseguenza il numero di visite. Ma nel caso che hai portato le visite non sono cambiate, quello che è cambiata è la frequenza di rimbalzo che aumentando ha ridotto il numero di impressions e il numero di pagine visualizzate.

    Non essendo cambiato il numero delle visite, che è l’unico parametro su cui poteva influire il cambiamento dell’algoritmo (migliorando o peggiorando il posizionamento e quindi di conseguenza il numero delle visite stesse), quello che non mi torna è come questa cosa possa aver influito sulla frequenza di rimbalzo.

    L’unica ipotesi che posso fare è che l’algoritmo abbiamo posizionato meglio quel sito su certe keywords dove il sito stesso “non è forte” e peggio su altre dove invece era più forte e quindi stimolando meglio l’utente, questo vedeva più pagine nel sito e non solo la prima.

    Probabilmente quello che andrei ad analizzare è la differenza di keywords che hanno portato visite tra prima e dopo la variazione della frequenza di rimbalzo, piuttosto che le pagine più visualizzate per capire perché gli utenti hanno iniziato a “rimbalzare” di più rispetto a prima.

    ciao e a presto
    Giovanni

  12. Ciao Giovanni,

    da quel grafico evidentemente non è apprezzabile il calo delle visite per quel sito web, ad oggi il calo è pari a un 20% rispetto al mese precedente. La tua ipotesi è corretta anche se, non sono sicuro che il rimbalzo sia attribuibile alla sola home page del weblog.

    Perché rimbalzano di più? Evidentemente, è più selettivo l’indice, magari prima ci arrivavano con delle parole chiavi differenti e dovevano “cercare nel sito” l’argomento d’interesse. Oggi, da quello che osservo, la corrispondenza Keyword/post, sembra molto più “logica” e “corta” rispetto al passato.

    Query in Google –> Post (o pagina), soddisfatto esco. La media di pagine lette è prossima alle 3 pagine/post per visita con un tempo di permanenza che, in contro tendenza rispetto ai primi dati, tende sensibilmente ad aumentare.

    Ti ringrazio per gli ulteriori spunti che mi dai per approfondire l’argomento, dovrei scrivere anche delle evoluzioni tuttavia, il tempo è sempre tiranno e non è possibile fare tutto.

    Alex

  13. Ciao Alex,
    credo che il dato di Analytics sulla frequenza di rimbalzo sia relativo a tutto il sito e non solo alla home page.

    Per il resto concordo sulla tua analisi, la serp è più precisa e quindi gli utenti trovano nella pagina di arrivo le informazioni che cercavano e lette queste escono dal sito (peralto era la stessa ipotesi che ho fatto nel primo commento).

    Questo perché dai dati che hai portato si vede come il tempo medio sul sito è rimasto invariato.

    Il valore delle frequenza di rimbalzo in se’ non ha secondo me un valore assoluto se non si tiene conto del tempo di permanenza sul sito.

    A presto
    Giovanni

  14. Aggiungo: se gli effetti dell’introduzione di Panda sono una maggiore precisione delle SERP unita ad un miglioramento del posizionamento di un sito rispetto agli aggregatori o ai siti che copiano i contenuti, sinceramente, come utente vedrei molto positivamente l’introduzione di questo nuovo “step evolutivo” nella generazione delle SERP.

    Ovviamente qualche problema quando si introduce una variazione ci sarà, ma penso che nel complesso le variazioni saranno positive per chi se le merita.

    Il discorso che si faceva nei primi commenti circa il fatto che Google vorrebbe favorire i siti “grandi” mi sembra in realtà una contraddizione nei termini, mi spiego: dietro i siti “grandi” ci sono aziende che investono e a livello di contenuti e a livello di visibilità (visibilità = SEO ma anche campagne in PPC ecc.).
    Se Google favorisse i “grandi” nelle SERP questi non comprerebbero i click di adwords in quanto non servirebbero loro, ricevendo già le visite in modo naturale.

    Differente il caso dei “piccoli”, questi investono principalmente il loro tempo e le loro competenze, difficile che un blog acquisti click.

    Per cui se fosse come è stato scritto sopra, il risultato sarebbe controproducente per Google.

    Non credete?

    Ciao
    John24

  15. Su Analitycs c’è il bounce rate sia per l’intero sito che per ogni singola pagina: Contenuti/Contenuti per titolo, per esempio, ma credo ci sia anche in altre schede.

    Mi par di pare di capire da i vostri discorsi che Panda è già operativo anche per google.it

  16. Si e no Giovanni,

    ci sono dei distinguo da fare, non mi dire che Wikio era una piattaforma piccolina… comunque è stata penalizzata ed è un dato di fatto. Il riferimento ai grandi, come tu giustamente hai scritto, sono quei siti che hanno una determinata struttura di copywriting, che producono contenuti originali e che hanno anche una frequenza di aggiornamento interessante; con queste prerogative, i siti più piccoli che comunque avevano visibilità attraverso anche quelle piattaforme, penalizzando gli aggregatori ecc… lo scenario cambia.

    E’ evidente che, se si determinano questi mostri di raccoglitori e che salgono nelle classifiche, non vederli più ha da di certo un guadagno in qualità e pulizia delle serp tuttavia, non si tiene conto che tra i tanti piccoli difetti tecnologici di indicizzazione e categorizzazione degli indici di ricerca, ci sono sempre quei fattori di influenza che tutti conosciamo ed è inutile nascondersi dietro un dito. Quei fattori che timidamente possono essere comunque cambiati a favore della diffusione all’interno delle strutture dei social network, non risolve comunque il problema; dando valenze a ReTwitt o Like in FaceBook, lo scenario cambierebbe su i contenuti freschi ma comunque rimarrebbero non naturali e pilotabili. Mia opinione suscettibile ovviamente di punti di vista diversi.

    Dai commenti che leggo in lingua inglese, da webmaster che stanno osservando il nuovo algoritmo, il calo di accessi vale anche per i siti più grandi, l’utilizzo o il ricorso ad AdWords sembra essere più generalizzato; posso sbagliare ma a dirlo non sono io ma i CEO di ditte che hanno registrato dei cali del 20% nelle conversioni…

    Controproducente… non lo so, di fatto, un indice meno affollato, più selettivo, meno scalabile se non con della qualità, potrebbe sortire l’effetto di ricorso a strumenti di sponsorizzazione.

    Credo che il confronto, i punti di vista, anche se diversi, possano aiutarci ad avvicinarci alla verità, il resto lo scopriremo solo dopo che Google avrà rilasciato l’upgrade Panda nelle serp di Google.it

    Ciao!!!
    Alex

  17. @Gregorio

    Si, su Analitycs il bounce rate è possibile visualizzarlo per l’intero sito o per singoli titoli ecc… mio errore aver generalizzato, chiedo scusa.

    No, non mi risulta che l’algoritmo Panda di Google sia già operativo in Google.it e immagino che ce ne saremo accorti tutti… “Loro” ti risponderebbero così: Work in Progress :)

    A presto e grazie Gregorio!

  18. Ciao Alessandro,
    tu scrivi “ci sono dei distinguo da fare, non mi dire che Wikio era una piattaforma piccolina…” infatti se segui il ragionamento del mio commento precedente credo che lo scopo di Google sia appunto quello di penalizzare i siti di più grandi dimensioni a favore dei piccoli.
    Quelli grandi e con capitali saranno quindi più portati ad acquistarsi pubblicità online.

    Anche sul discorso del calo delle visite c’è qualcosa che non mi torna.
    La prima pagina dei risultati conterrà sempre 10 indirizzi, e quindi le visite si distribuiranno tendenzialmente sempre tra questi.
    In altre parole forse alcuni siti verranno penalizzati ma altri avranno più visite, non può esserci un calo generalizzato a meno che non diminuiscano gli utenti che effettuano ricerche, ma non è questo il caso.

    Quello che può succedere è che essendo più precise le serp e contenendo meno spam (che è poi questo l’obiettivo di google), probabilmente gli utenti invece di visitare 3 siti di una serp ne visiteranno solo 1 trovando immediatamente in questo l’informazione che ricercavano.
    Ma negli altri casi le “2 visite perse” erano in realtà dei “rimbalzi” che hanno quindi nessun valore nemmeno per il sito che li riceve.

    Ciao e grazie
    Giovanni

  19. Solo per informazione…

    Panda è attivo nell’indice Google.it dal giorno 12/08/2011 ma i primi movimenti si sono osservati già dal 02/08/2011.

    Ad Maiora a tutti!

Lascia una risposta

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>