Contratto di governo: è il Facebook Live l’ordine del tempo nuovo M5S – Lega

Il governo Lega – 5 Stelle cambierà l’Italia? Il contratto di governo reggerà alla prova dei cinque anni di legislatura? Mentre la trattativa tra Luigi Di Maio e Matteo Salvini è ormai alla stretta finale, possiamo senza dubbio individuare un elemento emergente di questo tempo nuovo che si sta aprendo: l’utilizzo metodico del Facebook Live, la diretta del leader della propria pagina Facebook, quale mezzo di posizionamento politico e mediatico. Un format video attraverso cui i protagonisti della scena politica si rivolgono in modalità diretta e indifferenziata tanto ai cittadini quanto ai media, di fatto scavalcando i professionisti dell’informazione. Questa scelta di comunicazione non è certo una novità di queste ultime settimane: come abbiamo visto a suo tempo, è anche grazie al Live, all’utilizzo di questo contenuto digitale “nativo”, pubblicato esclusivamente su Facebook, che Di Maio e Salvini hanno potuto registrare in campagna elettorale una crescita delle loro fan base molto più alta rispetto a quella dei loro competitor. Ma le dirette di questi ultimi giorni dimostrano che questo format si è consolidato, che questa scelta di canale può far parte di un approccio strategico non soltanto quando va costruito il consenso elettorale, ma anche quando occorre comunicare la propria posizione nei frangenti più delicati di una legislatura.

Lo abbiamo visto fare martedì nel tardo pomeriggio a Luigi Di Maio, la cui diretta ha raccolto quasi due milioni di visualizzazioni.

In questa diretta Luigi Di Maio spiega la scelta del termine “contratto di governo” rispetto ad alleanza di governo: un patto basato sugli obiettivi. E non perde occasione di attaccare gli “opinionisti” del sistema mediatico tradizionale che proprio sul termine sul contratto di governo hanno ironizzato nei giorni scorsi. I dati di coinvolgimento sui social sono consistenti: più di 104mila reactions, 45mila di condivisioni, più di 65 mila commenti.

Il giorno dopo, la stessa scelta di comunicazione è fatta dall’altro protagonista della trattativa di governo, Matteo Salvini. Ad annunciarlo è il suo digital strategist Luca Morisi, che in due tweet successivi racconterà anche il dietro le quinte della diretta (prima con Salvini poi direttamente al tavolo delle trattative).

L’intervento di Salvini è una risposta alle prime critiche ricevute alla bozza di contratto di governo e alla copertura che ne è stata data dai giornali. Il video viene rilanciato in diretta da SKy tg 24 e Lorenzo Pregliasco di Youtrend su Twitter lo definisce “un format consueto, che ci dice un po’ quanto è cambiato il mondo”.

Nelle stesse ore, secondo i dati Talkwalker, l’hashtag #contrattodigoverno raggiunge il suo apice. Al momento l’hashtag 37mila mentions, con più di 14 mila utenti unici nel flusso. Alla conversazione hanno partecipato molti protagonisti della scena politica e social: da Maurizio Martina e Carlo Cottarelli a Osho. Una notizia di cui si è visto nascere e costruire il flusso quasi esclusivamente in rete e che riassumiamo in questa infografica.

Sergio Lepri, direttore Ansa dal 1961 al 1991, nel 2005 scriveva: «il giornalismo è mediazione tra fonti e i fruitori dell’informazione. E’ chiaro che internet, permettendo l’accesso alle fonti primarie rischia di eliminare ogni forma di mediazione giornalistica». Quello a cui stiamo assistendo in questi giorni conferma appieno l’irreversibilità di questa tendenza: per chiunque abbia un canale social solido, frequentato e conosciuto il newsmaking, il processo di costruzione della notizia è oggi praticabile direttamente sulle nuove piattaforme. Il protagonista è il contenuto, non occorre la mediazione giornalistica: la notizia è, appunto, disintermediata. Il flusso in tempo reale dell’online dispiega, nel Facebook Live, tutta la sua potenza dirompente su altri cicli produttivi chiusi dell’informazione, come ad esempio quello cartaceo, la cui capacità di raccontare la contemporaneità potrà probabilmente trovare efficacia solo quando sarà in grado di offrire analisi di respiro più ampio. La cronaca è altrove.

Marco Borraccino

AI, Automazione, Data Science: il giornalismo cerca alleati contro le fake news

12 gennaio 2018. Mark Zuckerberg annuncia importanti cambi nell’algoritmo Facebook. “You’ll see less public content like posts from businesses, brands, and media” scriveva in un post dalla sua pagina “and the public content you see more will be held to the same standard – it should encourage meaningful interactions between people”. Dopo anni di controverso rapporto con il più frequentato dei social media, dalla progressiva perdita di peso delle pagine ufficiali passando per la non felicissima esperienza degli istant articles, l’editoria mondiale si è sentita nuovamente davanti a una penalizzazione del gigante Menlo Park. In realtà le edizioni on line dei quotidiani non sembrano aver ricevuto contraccolpi letali: alcune settimane fa, un report di Newswhip mostrava che da questo punto di vista non molto è cambiato in questi mesi. Secondo i rilievi dell’indagine, infatti, in cima al proprio feed gli utenti continuano a trovare tuttora le condivisioni di breaking news o notizie in tempo reale dalle testate giornalistiche. Ma Newswhip sottolineava contestualmente anche un altro punto: la questione delle fake news è più aperta che mai. Su Facebook continuano infatti ad attrarre vaste audience anche gli editori che fanno leva sul complottismo, sulla paura, sulla rabbia. E la scorsa settimana a Perugia, nella dodicesima edizione del Festival del giornalismo, il tema del sensazionalismo, delle storture della “popularity” dei contenuti, dei possibili antidoti del giornalismo, è rimbalzato in tanti interventi.

Nella presentazione Infowar e Digital propaganda Daniele Chieffi, direttore della comunicazione digitale Agi, ha spiegato il funzionamento di alcune meccaniche con estrema chiarezza: “clicco una volta un articolo sulla violenza nell’immigrazione? Da due volte, l’algoritmo la volta successiva mi mostrerà quel tipo di contenuto per tre volte. Poi cinque, poi dieci, poi  venti. E tutto questo crea delle bolle informative, le echo chamber, che alimentano le nostre convinzioni. Considerato che il 76% dei giovani si informa su Facebook”, aggiunge “capite bene che impatto può avere questa meccanica”. Rischi noti e quanto mai attuali dell’ecosistema digitale, che potrebbero però trovare proprio nelle nuove tecnologie un alleato inatteso.

Il panel discussion “Disinformazione e Intelligenza artificiale: sfide e opportunità” ha affrontato apertamente questo argomento. Negli interventi dei relatori molti scenari sulle nuove possibilità ma anche molta prudenza. “Gli algoritmi hanno chiaramente un problema di identificazione del sensazionalismo” ha detto Lisa-Maria Neudert, dell’Oxford Internet Institute. E si sta lavorando, ha spiegato, affinché l’intelligenza artificiale quindi possa identificare, verificare e correggere la disinformazione. “Però non è ancora così semplice” avverte “perché ci sono ostacoli nella contestualizzazione, nel riconoscimento di un eventuale machine bias, nell’applicazione su scala: gestire grossi data base è un problema”. “Dunque” ha concluso “attualmente l’azione di debunking attraverso l’AI deve avvenire sempre attraverso l’azione umana”. Nello stesso panel è intervenuta anche Amy Zhang, membro del computer Science e Artificial Intelligence Lab del MIT e della Credibility Coalition, che sta lavorando su nuovi metodi di valutazione della credibilità di un contenuto informativo. “Abbiamo in cantiere vari progetti che, tramite i tool, tentano di rispondere a queste domande: cos’è un contenuto credibile? E possiamo convergere su modi scientifici e di sistema per valutare la credibilità di un’informazione? E se si, come possiamo applicarli su scala?”. “Il primo pilot della coalition” ha raccontato “è stato un progetto su cinquanta articoli, analizzato attraverso il tool Texttresher. E abbiamo lavorato su alcuni parametri fissi nella valutazione di credibilità del contenuto giornalistico: la quantità di pubblicità presente ad esempio, e l’aggressività della pubblicità stessa”. La stessa Zhang riconosce però la difficoltà nel trovare correlazioni inequivocabili tra la presenza di advertising e la credibilità di un contenuto.

Martin Robbins, intervenuto subito dopo, ha esposto l’esperienza di Factmata, community di factchecking che si fonda su applicazioni di Artificial Intelligence: “cerchiamo di agire in logiche di scala molto ampie e stiamo cercando di preparare i nostri sistemi a farlo. Però certo l’AI non è una formula magica che può risolvere da sola tutti i problemi”. E ha poi proseguito, a proposito di giornalismo e social media: “uno dei problemi di Twitter e di Facebook è che sono piattaforme che hanno molto a che fare con ciò che crea engagement tra le persone, ma poco con la qualità di quello che c’è. Popularity versus credibility: questa è la frattura”. Su questo punto ha ripreso la parola Amy Zhang sottolineando che uno degli indicatori dei progetti di Credibility Coalition è proprio quanto il tono di voce di un articolo sia emotional. “Io penso” ha concluso “che i trending topic basati della popolarità caleranno di importanza e si riaprirà uno spazio per gli esperti”.

Nel frattempo, tuttavia, il dibattito sul nuovo rapporto giornalismo e tecnologia è apertissimo. Julia Angwin di ProPublica, intervistata da Fabio Chiusi nel panel Algoritmi, Potere e Responsabilità, si è occupata lungamente dell’accountability degli algoritmi e nei suoi lavori ha ben sottolineato gli attuali limiti dell’automazione, tuttavia ha sottolineato la necessità che i nuovi giornalisti siano maggiormente tech-litered rispetto al passato. Perché è chiaro che l’utilizzo dell’AI richiederà sempre di più un approccio multidisciplinare del fattore umano. E le nuove skill del resto  sembrano essere già entrate nella quotidianità di molte testate, come hanno raccontato gli speaker del panel Automazione, Realtà aumentata e intelligenza artificiale in redazione. Anne-Marie Tomchack di Mashable UK ha esposto l’esperienza della sua redazione con Velocity, un tool personalizzabile, in uso già da anni, che consente di prevedere quali storie funzioneranno meglio sui social. “Ci sono grandi possibilità ma anche grossi rischi”, ha detto. “Perché gli algoritmi possono creare fake news: gli algoritmi stessi quindi devono essere più intelligenti e i giornalisti hanno un ruolo importante anche nel controllare che queste tecnologie effettivamente funzionino. Il tema dello sviluppo delle piattaforme va di pari passo con quello dell’etica delle nuove tecnologie”. Il tema ineludibile, ed emerge in tanti interventi, non è tecnico ma culturale.  “Bisogna sempre tenere a mente il ruolo degli esseri umani”, spiega Francesco Marconi, direttore R&D del Wall Street Journal. “C’è molto lavoro editoriale dietro l’automazione, dietro i template: tutti i processi di validazione dei dati sono guidati dall’uomo. La vera differenza è che siamo passati da un modo lineare a un modo dinamico di produrre notizie:  i giornalisti oggi sono in un certo senso anche scienziati e sperimentano, e questo è un modo di creare un’organizzazione”. Anche lo stesso Marconi però in chiusura del suo intervento si sofferma sull’etica: “il giornalismo dev’essere fondato sulla trasparenza. Lo si chiede alle fonti, dev’essere chiesto anche al modo in cui costruiamo le macchine”. L’uso delle tecnologie di automazione e intelligenza artificiale è approdato anche in Italia grazie a Rep, l’app premium di Repubblica, raccontata da Andrea Iannuzzi: “cerchiamo di offrire servizi all’utente di Rep anche attraverso il monitoraggio dei suoi dati dell’utente e le sue interazioni, per ottimizzare il flusso dei contenuti che proponiamo”. Lo stesso Iannuzzi racconta però anche gli ostacoli strutturali e contingenti che questo processo di innovazione sta incontrando in Italia. “L’uso dell’intelligenza artificiale da noi è ancora in uno stadio iniziale: il machine learning non può fare in italiano tutto ciò che riesce a fare in inglese” rileva. “Poi ci sono mansioni che per ragioni sindacali o organizzative devono essere segmentate in più figure. All’interno del nostro gruppo editoriale c’è però il visual lab in cui stiamo mettendo insieme figure professionali diverse per farle lavorare insieme”.

Per chiudere con un’esperienza italiana, si segnala infine l’approccio al data journalism condotto da più di un anno da Agi con redazioni esterne, esposto dal condirettore Marco Pretallesi nel panel Fatti, dati, mobile. “Io e Riccardo Luna ci siamo insediati all’inizio di ottobre di un anno fa, e quasi contestualmente è merso il termine post-verità. Per questo abbiamo sintetizzato il nostro indirizzo con l’hashtag #laveritàconta. Però un conto è lo slogan, un conto è farlo e per questo abbiamo deciso di dare spazio a dati e factchecking e c’è stato bisogno di competenze specifiche, di coinvolgere le realtà migliori”. Nel panel sono state raccontate le collaborazioni strutturali che Agi ha allestito con Pagella Politica che, ha raccontato Giovanni Zagni, ha l’obiettivo di offrire ai lettori il contesto delle dichiarazioni pubbliche per verificarne l’attendibilità. Analogo rapporto è stato instaurato anche con Formica Blu, rappresentata da Elisabetta Tola, che fornisce articoli long form improntati sull’utilizzo dei dati, e Youtrend, che, racconta Lorenzo Pregliasco, con il medesimo approccio improntato sui dati fa analisi politica. Un modello organizzativo che, ha detto Pratellesi, richiede tempo e investimenti.

Marco Borraccino

 

Qui i miei articoli sulle precedenti edizioni del Festival Internazionale del giornalismo:

2017

Festival del giornalismo di Perugia 2017, fake news: l’antidoto è riscoprire la lentezza

2016

Festival del giornalismo Perugia 2016, il futuro passa dal mobile. E dall’Africa…

2015

Festival del giornalismo: come sostenere una testata online. A Perugia le idee degli altri

Tv e la sua seconda vita: da ‘cattiva maestra’ a dispositivo ‘smart’

2014

Festival del giornalismo di Perugia, si riparte da Snowden

Quel monarca assoluto di nome Google News

Il lettore 2.0, watchdog dei media

Big Data e codice: così due studenti della Sapienza hanno analizzato le elezioni su Twitter

I social media sono indicatori credibili dell’andamento di una campagna elettorale? Ci siamo interrogati in tanti a tal riguardo. E la misurabilità, l’ascolto, i risultati dei profili social sono stati oggetto di indagini molteplici e dense, negli ultimi mesi: me ne sono occupato io su questo blog, ma anche molti altri, ognuno con un taglio diverso. Qualcuno si è affidato a tool molto conosciuti in ambito social, altri hanno allestito dei veri e propri team multidisciplinari di sviluppatori e analisti. Altri ancora hanno invece approfittato delle elezioni politiche per costruire, silenziosamente, un proprio modello di monitoraggio e mettere in pratica quanto avevano appreso in aula qualche settimana prima: è il caso di Davide Aureli e Valerio Guarrasi, due studenti di 23 anni iscritti al corso di laurea in Data Science della facoltà di Scienze Statistiche dell’Università La Sapienza di Roma. Dopo la prima messa in onda de “Lo Stato Social”, mi hanno contattato per condividere i loro rilievi e farmi sapere come hanno lavorato: risultati e metodo che hanno messo a disposizione di tutti su Github, una piattaforma social per la programmazione condivisa.

Aureli e Guarrasi hanno analizzato i dati provenienti da Twitter negli ultimi otto giorni di campagna elettorale, prendendo in esame un bacino complessivo di 980 profili Twitter in tutto e 8375 tweet. “Siamo partiti selezionando alcuni profili di partito e avviando lo ‘streamer’, un programma che osserva questi profili” mi hanno spiegato. “Appena uno di questi profili pubblicava un tweet, questo veniva raccolto nei nostri database. Lo streamer poi ha continuato a girare per tutta la settimana”. La quantità dei profili monitorati e dei post ottenuti ha infatti richiesto che un computer restasse acceso per tutta la settimana soltanto per raccogliere i dati. “Non volevamo concentrarci solamente sui leader di ogni partito ma raccogliere i tweet di tutti i candidati delle elezioni del 4 marzo e anche delle pagine dei loro partiti: in un secondo momento, ci siamo concentrati su tutti i tweet che avessero ottenuto come minimo 5 favoriti e 5 RT”.

A tutti gli effetti, Aureli e Guarrasi hanno allestito in autonomia un tool in-house di social listening e monitoring, con un proprio metodo e funzionamento, in grado di analizzare metriche quantitative dei post come RT e favorites ma anche di dare indicazioni chiare sui temi chiave dell’ultima settimana di campagna elettorale. E nei loro rilievi finali ci sono molti elementi su cui convergono anche altre analisi.

Ad esempio, il fatto che la coalizione più attiva su Twitter sia stata quella di centrodestra (anche, aggiungono, a fronte di un numero complessivo di profili monitorati inferiore a quello di altri). Il partito più performante nelle loro analisi è risultato il Movimento 5 Stelle: i profili legati ai candidati e al movimento grillino sono stati infatti quelli che, mediamente, hanno ottenuto il maggior numero di RT e favorites.

Inoltre, osservano Aureli e Guarrasi, “abbiamo notato che i rappresentanti dei partiti hanno ricevuto su Twitter più attenzione ogni qual volta che hanno offeso o criticato i loro rivali, piuttosto che esposto idee e proposte”. “Gli utenti Twitter”, dicono nelle loro conclusioni, “sono altamente motivati, più giovani della media e più spesso uomini quando coinvolti in thread di dibattito politico: analizzare questa piattaforma può dunque aiutarci a comprendere dove si posizionano individualmente le persone altamente motivate in relazione al discorso pubblico”.

Marco Borraccino