AI, Automazione, Data Science: il giornalismo cerca alleati contro le fake news

12 gennaio 2018. Mark Zuckerberg annuncia importanti cambi nell’algoritmo Facebook. “You’ll see less public content like posts from businesses, brands, and media” scriveva in un post dalla sua pagina “and the public content you see more will be held to the same standard – it should encourage meaningful interactions between people”. Dopo anni di controverso rapporto con il più frequentato dei social media, dalla progressiva perdita di peso delle pagine ufficiali passando per la non felicissima esperienza degli istant articles, l’editoria mondiale si è sentita nuovamente davanti a una penalizzazione del gigante Menlo Park. In realtà le edizioni on line dei quotidiani non sembrano aver ricevuto contraccolpi letali: alcune settimane fa, un report di Newswhip mostrava che da questo punto di vista non molto è cambiato in questi mesi. Secondo i rilievi dell’indagine, infatti, in cima al proprio feed gli utenti continuano a trovare tuttora le condivisioni di breaking news o notizie in tempo reale dalle testate giornalistiche. Ma Newswhip sottolineava contestualmente anche un altro punto: la questione delle fake news è più aperta che mai. Su Facebook continuano infatti ad attrarre vaste audience anche gli editori che fanno leva sul complottismo, sulla paura, sulla rabbia. E la scorsa settimana a Perugia, nella dodicesima edizione del Festival del giornalismo, il tema del sensazionalismo, delle storture della “popularity” dei contenuti, dei possibili antidoti del giornalismo, è rimbalzato in tanti interventi.

Nella presentazione Infowar e Digital propaganda Daniele Chieffi, direttore della comunicazione digitale Agi, ha spiegato il funzionamento di alcune meccaniche con estrema chiarezza: “clicco una volta un articolo sulla violenza nell’immigrazione? Da due volte, l’algoritmo la volta successiva mi mostrerà quel tipo di contenuto per tre volte. Poi cinque, poi dieci, poi  venti. E tutto questo crea delle bolle informative, le echo chamber, che alimentano le nostre convinzioni. Considerato che il 76% dei giovani si informa su Facebook”, aggiunge “capite bene che impatto può avere questa meccanica”. Rischi noti e quanto mai attuali dell’ecosistema digitale, che potrebbero però trovare proprio nelle nuove tecnologie un alleato inatteso.

Il panel discussion “Disinformazione e Intelligenza artificiale: sfide e opportunità” ha affrontato apertamente questo argomento. Negli interventi dei relatori molti scenari sulle nuove possibilità ma anche molta prudenza. “Gli algoritmi hanno chiaramente un problema di identificazione del sensazionalismo” ha detto Lisa-Maria Neudert, dell’Oxford Internet Institute. E si sta lavorando, ha spiegato, affinché l’intelligenza artificiale quindi possa identificare, verificare e correggere la disinformazione. “Però non è ancora così semplice” avverte “perché ci sono ostacoli nella contestualizzazione, nel riconoscimento di un eventuale machine bias, nell’applicazione su scala: gestire grossi data base è un problema”. “Dunque” ha concluso “attualmente l’azione di debunking attraverso l’AI deve avvenire sempre attraverso l’azione umana”. Nello stesso panel è intervenuta anche Amy Zhang, membro del computer Science e Artificial Intelligence Lab del MIT e della Credibility Coalition, che sta lavorando su nuovi metodi di valutazione della credibilità di un contenuto informativo. “Abbiamo in cantiere vari progetti che, tramite i tool, tentano di rispondere a queste domande: cos’è un contenuto credibile? E possiamo convergere su modi scientifici e di sistema per valutare la credibilità di un’informazione? E se si, come possiamo applicarli su scala?”. “Il primo pilot della coalition” ha raccontato “è stato un progetto su cinquanta articoli, analizzato attraverso il tool Texttresher. E abbiamo lavorato su alcuni parametri fissi nella valutazione di credibilità del contenuto giornalistico: la quantità di pubblicità presente ad esempio, e l’aggressività della pubblicità stessa”. La stessa Zhang riconosce però la difficoltà nel trovare correlazioni inequivocabili tra la presenza di advertising e la credibilità di un contenuto.

Martin Robbins, intervenuto subito dopo, ha esposto l’esperienza di Factmata, community di factchecking che si fonda su applicazioni di Artificial Intelligence: “cerchiamo di agire in logiche di scala molto ampie e stiamo cercando di preparare i nostri sistemi a farlo. Però certo l’AI non è una formula magica che può risolvere da sola tutti i problemi”. E ha poi proseguito, a proposito di giornalismo e social media: “uno dei problemi di Twitter e di Facebook è che sono piattaforme che hanno molto a che fare con ciò che crea engagement tra le persone, ma poco con la qualità di quello che c’è. Popularity versus credibility: questa è la frattura”. Su questo punto ha ripreso la parola Amy Zhang sottolineando che uno degli indicatori dei progetti di Credibility Coalition è proprio quanto il tono di voce di un articolo sia emotional. “Io penso” ha concluso “che i trending topic basati della popolarità caleranno di importanza e si riaprirà uno spazio per gli esperti”.

Nel frattempo, tuttavia, il dibattito sul nuovo rapporto giornalismo e tecnologia è apertissimo. Julia Angwin di ProPublica, intervistata da Fabio Chiusi nel panel Algoritmi, Potere e Responsabilità, si è occupata lungamente dell’accountability degli algoritmi e nei suoi lavori ha ben sottolineato gli attuali limiti dell’automazione, tuttavia ha sottolineato la necessità che i nuovi giornalisti siano maggiormente tech-litered rispetto al passato. Perché è chiaro che l’utilizzo dell’AI richiederà sempre di più un approccio multidisciplinare del fattore umano. E le nuove skill del resto  sembrano essere già entrate nella quotidianità di molte testate, come hanno raccontato gli speaker del panel Automazione, Realtà aumentata e intelligenza artificiale in redazione. Anne-Marie Tomchack di Mashable UK ha esposto l’esperienza della sua redazione con Velocity, un tool personalizzabile, in uso già da anni, che consente di prevedere quali storie funzioneranno meglio sui social. “Ci sono grandi possibilità ma anche grossi rischi”, ha detto. “Perché gli algoritmi possono creare fake news: gli algoritmi stessi quindi devono essere più intelligenti e i giornalisti hanno un ruolo importante anche nel controllare che queste tecnologie effettivamente funzionino. Il tema dello sviluppo delle piattaforme va di pari passo con quello dell’etica delle nuove tecnologie”. Il tema ineludibile, ed emerge in tanti interventi, non è tecnico ma culturale.  “Bisogna sempre tenere a mente il ruolo degli esseri umani”, spiega Francesco Marconi, direttore R&D del Wall Street Journal. “C’è molto lavoro editoriale dietro l’automazione, dietro i template: tutti i processi di validazione dei dati sono guidati dall’uomo. La vera differenza è che siamo passati da un modo lineare a un modo dinamico di produrre notizie:  i giornalisti oggi sono in un certo senso anche scienziati e sperimentano, e questo è un modo di creare un’organizzazione”. Anche lo stesso Marconi però in chiusura del suo intervento si sofferma sull’etica: “il giornalismo dev’essere fondato sulla trasparenza. Lo si chiede alle fonti, dev’essere chiesto anche al modo in cui costruiamo le macchine”. L’uso delle tecnologie di automazione e intelligenza artificiale è approdato anche in Italia grazie a Rep, l’app premium di Repubblica, raccontata da Andrea Iannuzzi: “cerchiamo di offrire servizi all’utente di Rep anche attraverso il monitoraggio dei suoi dati dell’utente e le sue interazioni, per ottimizzare il flusso dei contenuti che proponiamo”. Lo stesso Iannuzzi racconta però anche gli ostacoli strutturali e contingenti che questo processo di innovazione sta incontrando in Italia. “L’uso dell’intelligenza artificiale da noi è ancora in uno stadio iniziale: il machine learning non può fare in italiano tutto ciò che riesce a fare in inglese” rileva. “Poi ci sono mansioni che per ragioni sindacali o organizzative devono essere segmentate in più figure. All’interno del nostro gruppo editoriale c’è però il visual lab in cui stiamo mettendo insieme figure professionali diverse per farle lavorare insieme”.

Per chiudere con un’esperienza italiana, si segnala infine l’approccio al data journalism condotto da più di un anno da Agi con redazioni esterne, esposto dal condirettore Marco Pretallesi nel panel Fatti, dati, mobile. “Io e Riccardo Luna ci siamo insediati all’inizio di ottobre di un anno fa, e quasi contestualmente è merso il termine post-verità. Per questo abbiamo sintetizzato il nostro indirizzo con l’hashtag #laveritàconta. Però un conto è lo slogan, un conto è farlo e per questo abbiamo deciso di dare spazio a dati e factchecking e c’è stato bisogno di competenze specifiche, di coinvolgere le realtà migliori”. Nel panel sono state raccontate le collaborazioni strutturali che Agi ha allestito con Pagella Politica che, ha raccontato Giovanni Zagni, ha l’obiettivo di offrire ai lettori il contesto delle dichiarazioni pubbliche per verificarne l’attendibilità. Analogo rapporto è stato instaurato anche con Formica Blu, rappresentata da Elisabetta Tola, che fornisce articoli long form improntati sull’utilizzo dei dati, e Youtrend, che, racconta Lorenzo Pregliasco, con il medesimo approccio improntato sui dati fa analisi politica. Un modello organizzativo che, ha detto Pratellesi, richiede tempo e investimenti.

Marco Borraccino

 

Qui i miei articoli sulle precedenti edizioni del Festival Internazionale del giornalismo:

2017

Festival del giornalismo di Perugia 2017, fake news: l’antidoto è riscoprire la lentezza

2016

Festival del giornalismo Perugia 2016, il futuro passa dal mobile. E dall’Africa…

2015

Festival del giornalismo: come sostenere una testata online. A Perugia le idee degli altri

Tv e la sua seconda vita: da ‘cattiva maestra’ a dispositivo ‘smart’

2014

Festival del giornalismo di Perugia, si riparte da Snowden

Quel monarca assoluto di nome Google News

Il lettore 2.0, watchdog dei media

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *