Overblog
Segui questo blog
Edit post Administration Create my blog
Michele Di Salvo
12 Feb

I social network e l'informazione giornalistica

Pubblicato da Michele Di Salvo  - Tags:  informazione, internet, web, giornali, giornalismo, Campania, socialnetwork

Queste sono le cose che avrei detto al corso di formazione gratuito organizzato dal Sindacato Unitario dei Giornalisti della Campania dal titolo "Social network istruzioni per l'uso".
E mi avrebbe fatto molto piacere dirle proprio perché spesso il mondo del giornalismo professionista le ignora o le sottovaluta.
Sarebbe stata una bella occasione di osmosi costruttiva tra mondo digitale e media tradizionali.
Non l'ho potuto fare perché Ottavio Lucarelli, Presidente dell'Ordine dei Giornalisti della Campania, mi ha imposto telefonicamente alle 21 (dodici ore prima del corso) di non intervenire, senza alcuna ragione plausibile o accettabile.
Io intervengo da anni in eventi pubblici, scrivo su testate locali, nazionali e internazionali, e mai in oltre vent'anni di lavoro mi era successo un episodio simile, mai ho subito una pressione del genere, mai la mia presenza è stata per qualcuno imbarazzante. Se non forse per coloro cui i dati da me presentati – precisi, puntuali, che ho sempre documentato – erano sgraditi [dai fake follower dei politici, ai falsi attacchi hacker alla Casaleggio, a decine di articoli sul Datagate su l'Unità, al LandGrabbing su Repubblica o all'inchiesta sull'agroalimentare sul Roma].
Ai lettori giudicare.

Internet nasce come rete di collegamenti di informazioni, raccolte in "siti web" che le sistematizzano. Si indica come Web 2.0 l'insieme di tutte quelle applicazioni che permettono l'interazione tra il sito web e l'utente. I blog, i forum, le chat, i wiki, le piattaforme di condivisione di media come i socialnetwork, sono tutte piattaforme che consentono questa interazione. Parliamo quindi di Web dinamico per differenziarlo dal cosiddetto Web statico o Web 1.0.

Il Web 2.0 costituisce anzitutto un approccio filosofico alla rete che ne connota la dimensione sociale, della condivisione, dell'autorialità rispetto alla fruizione passiva: sebbene dal punto di vista tecnologico molti strumenti della rete possano apparire invariati (forum, chat e blog, c'erano già nel web 1.0) è la modalità di utilizzo della rete ad aprire nuovi scenari fondati sulla compresenza nell'utente della possibilità di fruire e di creare/modificare i contenuti multimediali.

Per molto tempo soprattutto il mondo dell'informazione presente in rete ha inteso soprattutto i canali social come uno strumento di amplificazione e lancio delle proprie notizie/link.

Una via unidirezionale che doveva drenare visitatori dai social network ai siti di informazione per leggere le notizie in forma prevalentemente statica, dove l'unica azione favorita è l'ulteriore condivisione.

Sono nate quindi tecniche come

- "la modifica del titolo" della notizia condivisa, a seconda delle pagine e dei gruppi

- la modifica della foto/immagine dell'articolo

- la diffusione che clickbaiting ("leggi qui..." - "scopri cosa ha detto..." etc...)

Tutte tecniche proprie della pubblicità online.

L'effetto diretto di questo approccio al mondo del web2.0 è stato da un lato la crescita esponenziale del numero di accessi, in termimi di visite assolute, ma dall'altro la perdita di "qualità" del traffico, in termini di interesse e permanenza.

L'unità di misura di questo "decadimento" della qualità del traffico è il bouncerate.

Bounce Rate è un termine utilizzato nell'analisi di traffico sui siti web.

Un bounce (in inglese rimbalzo) avviene quando l'utente abbandona il sito dopo aver preso visione di una sola pagina web entro pochi secondi.

Molti sistemi di statistiche fissano il bounce rate (frequenza di rimbalzo) a 20 secondi: un utente si definisce disinteressato ai contenuti di una pagina se l'abbandona entro questo periodo. Il limite di 20 secondi è un valore di riferimento che comunque si sta decisamente abbassando anche a 5 secondi in alcuni applicativi software commerciali.

Un basso tasso di abbandono è indice di buona organizzazione dei contenuti e di un look and feel (ovvero aspetto grafico) che invita l'utente a continuare nella navigazione del sito.

Ho estrapolato alcuni dati di traffico di alcuni siti di informazione.

Ovviamente tutti i dati "semplificati" e tutti i dati integrali sono disponibili per una ricerca complessiva.

In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.
In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.
In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.
In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.
In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.
In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.
In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.

In questa prima serie di slide ci sono i dati relativi al traffico web del mese di novembre 2015 (gli ultimi pubblicati) esattamente come rilevati da AudiWeb – l'organismo indipendente che monitora i siti di informazione.

In questa slide ho approfondito i dati qualitativi di traffico di questi stessi siti-campione usando un'altra fonte pubblica e indipendente che è Alexa – che è bene chiarire che non è un counter, ma è un indice.

In questa slide ho approfondito i dati qualitativi di traffico di questi stessi siti-campione usando un'altra fonte pubblica e indipendente che è Alexa – che è bene chiarire che non è un counter, ma è un indice.

Qui i dati delle nostre testate locali o che hanno sede in regione Campania. Chiaramente per quanto riguarda le pagine locali di Repubblica (napoli.repubblica.it) e Corriere (corrieredelmezzogiorno.corriere.it) si fa riferimento ai dati di traffico delle testate principali, di cui ai dati precedenti.

Qui i dati delle nostre testate locali o che hanno sede in regione Campania. Chiaramente per quanto riguarda le pagine locali di Repubblica (napoli.repubblica.it) e Corriere (corrieredelmezzogiorno.corriere.it) si fa riferimento ai dati di traffico delle testate principali, di cui ai dati precedenti.

Uno degli effetti di questa differente qualità del traffico è stata, ad esempio, una riduzione media del 66% della remunerazione pubblicitaria – sia ppv sia ppc – negli ultimi sei anni, e conseguentemente il progressivo riempimento ed affollamento degli spazi web dei siti – soprattutto di informazione – di banner, cornici, popup pur di sostenere i livelli di introiti.
Tutte prassi che spesso allontanano il lettore perchè riducono visibilità e leggibilità.

A questo di recente hanno posto rimedio nuove forme di inserzione, come lo share content o i link embedded inclusi negli articoli, o anche i suggerimenti tematici come i "potrebbero interessarti anche..." (spesso adv).

Queste ultime prassi – che toccano ancora poco i siti di informazione dei giornali tradizionali – sono certamente meno invasive e più remunerative (per i siti e per i clienti) ma rischiano di porre seri problemi di qualità e autorevolezza dei contenuti (sino a che punto un link è un riferimento giornalistico relativo ad una fonte o ad un approfondimento e non un'inserzione pubblicitaria?)

L'analisi dei dati dei traffico mette in evidenza un'enorme potenziale di crescita assolutamente non sfruttato, sia in termini di quantità che soprattutto di qualità degli accessi.

Intanto ci offre la possibilità di dimensionare il nocciolo duro (e maggiormente interessato e interessante) dei lettori dei siti di informazione.

Parliamo di quella percentuale di utenti "fuori" dal bounce rate che vedono più di una pagina e che trascorrono la maggior parte del tempo del traffico del sito navigando e leggendo.

Gran parte di questo traffico deriva da re-link e da motori di ricerca: persone che trovano interessante un riferimento al nostro articolo ripreso altrove, o che cercano una specifica notizia e informazione per parole chiave.

La prima parte di lavoro da fare è quindi un'attenta, studiata e profonda indicizzazione dei contenuti, che in definitiva sono il "vero prodotto" di un sito di informazione.

Questa indicizzazione non può essere affidata esclusivamente alle figure dei social media manager (che già sono una rarità nella maggior parte delle redazioni), e non passa dal "mettere online" il contenuto di un articolo scritto – nel modo in cui è scritto – per un'edizione ad esempio cartacea.

Il web prevede delle regole precise affichè gli algoritmi dei motori di ricerca "leggano", comprendano e indicizzino un contenuto al di là delle parole chiave o tag.

Tutto questo ha una immediata rilevanza misurabile proprio su fatti e notizie locali, quando accade spesso che siti di blogger "che scrivono per il web" pubblicano articoli che – su quello specifico tema – risultano "maggiormente rilevanti" rispetto alla notizia sullo stesso fatto riportata da grandi testate: la chiave sta nell'indicizzazione del testo, e nello specifico modo in cui esso è scritto.

[inserire le parole chiave nel titolo, ripeterle nel primo paragrafo dell'articolo, usare seo-tools e validator...]

Un'altra cosa che viene premiata dai motori di ricerca è "l'originalità" non tanto e solo sostanziale, ma soprattutto formale. Perchè per i motori di ricerca conta "la priorità" della pubblicazione di quel testo scritto in quel preciso modo, con penalizzazioni anche sensibili di testi simili e successivi.

[in concreto, pubblicare notizie di agenzia per riempire un sito di contenuti, anche quando se ne ha l'autorizzazione perché si è pagato un canone, rende un sito "pieno" ma fortemente penalizzato in termini di qualità dei contenuti - e questo fatto per esempio ha fatto nascere un vero e proprio mercato di software di "riscrittura automatica" per cui un testo può essere automaticamente riscritto anche centinaia di volte e verrà letto come originale]

Ma la stessa analisi è rilevante anche per un diverso e più proficuo uso dei social network, che consentono un'interazione che mantiene vivo l'interesse e la partecipazione alla notizia e che spesso consente di portare i lettori a "seguirla" anche negli sviluppi successivi.

Commentare, rispondere, discutere, soprattutto rispondere ai commenti, essere critici, fare fact-checking, accogliere suggerimenti e informazioni aggiuntive, come contributi video-fotografici sono tutte chiavi vincenti di un giornalismo interattivo che i social hanno introdotto, specialmente nel mondo anglosassone o su fatti globali (dalle inchieste sulla privacy a fatti di politica estera).

Anche qui conta l'originalità del contenuto.

Usare un account solo per rilanciare un link ad un articolo non paga, come spesso dimostrano le analisi su account con un rilevante numero di follower su twitter ai cui tweet non corrispondono proporzionali like o retweet.

Ciò fa si che spesso su determinati temi, momenti, campagne, account di cd. "influencer" finiscano con l'essere molto più autorevoli, rilevanti, e influenti rispetto a quelli dei media tradizionali.

Ma tutto questo significa anche che mentre spesso la struttura redazionale è ingessata da policy e prassi editoriali abbastanza rigide, che possono ridurre la capacità di engagement, amplissimi spazi sono offerti all'azione individuale e privata del singolo giornalista, che senza scordare il proprio ruolo professionale e la testata per cui lavora e di cui non è portavoce diretto, è molto più libero di alimenatre le interazioni e stimolare l'ingaggio social, risultando spesso più autorevole, autonomo, rilevante, della sua stessa testata.

Un esempio in Italia di uso positivo dei social in questo senso sono gli account di Peter Gomez, Stefano Feltri, Andrea Scanzi del Fatto Quotidiano, mentre la stessa cosa non si può dire dell'account di Marco Travaglio.

Parallelamente account come quello di Vittorio Zucconi di Repubblica sono certamente più autorevoli ed interattivi rispetto a quello dell'ex direttore Ezio Mauro.

Anna Masera alla Stampa ha indici di performace superiori a quelli de La Stampa – primo giornale quotidiano in Italia a dotarsi di un socialmedia manager prima e di un Public Editor oggi.

Sono solo alcuni esempi, ma partendo da questi ciascuno può farsi una propria idea, fare la propria analisi non solo quantitativa ma anche qualitativa, e comprendere come utilizzare al meglio questi strumenti di comunicazione sociale.

Condividi post