Nei primi giorni di Marzo il mondo SEO è entrato in subbuglio per notevoli movimenti SERP per molti siti soprattutto relativi a news. Si è rivelato, poi, che Google ha rilasciato un nuovo algoritmo relativo al SEO ovviamente senza pubblicizzarne il rilascio stesso. Spesso, infatti, la compagnia di Montain View evita di comunicare questi aggiornamenti per evitare ottimizzazioni SEO Google-oriented.

Questo aggiornamento, chiamato Fred da un tweet di Gary Illyes di Google, sembra essere “solo” un rafforzamento dell’algoritmo Panda/Quality Update rilasciato per la prima volta nel 2011. Fred non è altro che un’ottimizzazione che colpisce i siti di news ma solo quelli il cui obiettivo principale è quello di monetizzare e, soltanto dopo, di fornire informazioni all’utente, informazione, tra l’altro che deve essere utile, veritiera e soddisfacente.

L’intervento, inoltre, è indirizzato a migliorare l’analisi della qualità dei link, tramite penalizzazione di quei siti che adoperano pratiche di link building illecite, andando allo stesso tempo quindi a premiare i siti posizionati in modo lecito.

Di seguito una serie di elementi che sono stati penalizzati dall’algoritmo Panda e da Fred:

  • Pagina/sito che presenta eccessiva e intrusiva pubblicità per l’utente al punto da non permettergli di fruire del contenuto principale
  • Contenuti di bassa qualità. Bassa qualità intesa come contenuto scarno e/o duplicato/ripreso da altre fonti più autorevoli.
  • Contenuto che in generale non soddisfa l’utente e lo spinge a cercare altrove risposte alla sua ricerca.
  • Affiliazioni e affiliazioni. Specie quando viene fatto transitare PageRank nei link.
  • Sovraottimizzazione on-site.

Siti con questi elementi hanno spesso registrato un bounce rate (frequenza di rimbalzo) elevato, tempo di permanenza sulle pagine molto basso e click sulle affiliazioni alti. Questi siti non rappresentano la qualità per Google e non possono essere mostrati nelle prime pagine delle risposte dopo ricerche volumetriche.

Il 14 Marzo 2017 Google ha pubblicato le nuove linee guida per i Quality Rater, che etichettano come di scarsa qualità le seguenti tipologie di siti:

  • Siti che imitano altri siti molto noti.
  • Siti che si presentano come siti di notizie, ma contengono contenuti non accurati con il solo scopo di portare beneficio a persone, imprese, governi o altre organizzazioni politiche e finanziarie.
  • Siti che deliberatamente disinformano o ingannano gli utenti presentando contenuti inesatti.
  • Siti che diffondono teorie cospiratorie infondate o falsi allarmi, presentandoli come reali.
  • Pagine o siti che presentano fatti scientifici dubbi.
  • Siti che promuovono odio, crimini e violenza contro gruppi di persone.

Mentre queste sono 2 delle caratteristiche che dovrebbero avere i siti di news di buona qualità:

  • Dovrebbero includere contenuti accurati basati sui fatti, presentati in modo da aiutare gli utenti a raggiungere una miglior comprensione degli eventi. Queste fonti adottano in genere processi di revisione e politiche editoriali consolidate.
  • Se parlano di argomenti scientifici, dovrebbero rappresentare il consenso della comunità scientifica (sui temi dove esiste tale consenso).

In pratica l’aggiornamento algoritmico punta non solo alla qualità del link building ma soprattutto ai contenuti del sito ed alla pubblicità presente all’interno dello stesso: in sostanza se si hanno dei siti tematici con contenuti di qualità e con pubblicità non invasiva, i risultati hanno avuto dei miglioramenti, se invece il sito ha dei contenuti di scarso valore, o relativi ad argomenti sensibili scritti per generare più traffico (vedi bufale, informazioni scientifiche o mediche generiche) si è avuta una penalizzazione del traffico.

Per quanto riguarda, comunque, la questione dei link, advertising e affiliazioni l’aggiornamento non terrebbe in considerazione tanto il loro numero, ma la loro effettiva utilità per gli utenti. L’algoritmo tenderebbe a penalizzare le pagine in cui gli annunci pubblicitari rappresentano un elemento disgregante a danno del flusso dei contenuti.

Un’ultima sensazione che si è avuta osservando le variazioni del ranking di varie tipologie di siti è il controllo, che Fred effettuerebbe, sulla sovra ottimizzazione dei siti: l’idea è che l’algoritmo possa penalizzare i contenuti proposti in modo “innaturale” perché adattati più per il posizionamento che per la fruizione.