La guerra giusta di Twitter ai profili fake

Alcune settimane fa, su Twitter, ho avuto una conversazione con un giornalista riguardante lo stato di salute della piattaforma di San Francisco. In un suo tweet aveva osservato la comparsa di una serie di account e di commenti ai suoi tweet ogniqualvolta nominasse un determinato personaggio politico.

Nel thread generato da questo tweet, interessante e partecipato, sono seguite da parte mia alcune domande, per capire meglio si trattasse di automazione o di profili rispondenti a persone vere. In un tweet sostenevo: “il fatto che siano network di persone reali è in sé un punto positivo per la piattaforma”. E dunque ora non posso che applaudire alla notizia diramata alcuni giorni fa dal Washington Post: negli ultimi due mesi, Twitter ha sospeso più di 70 milioni di account.

La piattaforma guidata da Jack Dorsey aveva già annunciato con un post sul blog della piattaforma di aver intensificato i propri sforzi per combattere abusi e troll, per contrastare la disinformazione e le manipolazioni e per tutelare le conversazioni che si tengono sulla piattaforma. Il Washington Post ha chiarito meglio i contorni dell’offensiva messa in atto da San Francisco: da maggio, ogni giorno i software messi a punto dallo staff di Twitter hanno sospeso più di un milione di profili sospetti o falsi.

Nel mese di maggio, tredici milioni di sospensioni in una sola settimana.

È la coda lunga della reazione alla campagna di disinformazione social organizzata nel 2016 da una factory di troll di base a San Pietroburgo che, attraverso piattaforme tecnologiche, in occasione delle presidenziali statunitensi fu in grado di ingannare gli elettori esacerbando le tensioni politiche e sociali, con una rete di più di 3mila profili. Secondo la tech company, sarebbero stati individuati anche altri 50258 account automatizzati collegati al governo russo. E il sito della National Public Radio proprio ieri sottolineava in un articolo quanto la strategia dei troll russi del 2016 fosse raffinata, avvalendosi anche di fake account che apparivano in tutto come normali fonti di informazione locale statunitense.

A rendere ora tecnicamente possibile l’escalation nella lotta ai profili fake sono stati i software di machine-learning di Magic Pony, start up acquisita da Twitter due anni fa. Per chi, come il sottoscritto, ritiene che i social media siano prima di tutto una formidabile opportunità di relazione con le persone e di fruizione di servizi, è un’ottima notizia.

È un bene che di fronte all’intensificarsi di fenomeni di inquinamento delle conversazioni Twitter scelga di puntare sulla qualità dell’ambiente della piattaforma, anche a costo di mettere fortemente a rischio la propria crescita di utenti attivi, ovvero il primo parametro di valutazione per gli inserzionisti pubblicitari.

Ci sono casi in cui l’individuazione di profili falsi e manipolatori è relativamente semplice: è il caso, ad esempio, di account “dormienti” per lunghi periodi e improvvisamente attivi su certe conversazioni; profili che pubblicano tweet di replica a numeri ampi di account che non seguono; profili che ricevono spesso il blocco da parte di altri utenti; profili che fanno capo a un solo indirizzo IP; profili che seguono altri account individuati come spam o bot. A volte Twitter sospende l’account, in altre situazioni provvede con uno “shadow-ban”, sostanzialmente bloccando la capacità di reach di certi tweet.

Poi naturalmente ci sono i bot: account che, sulla base di software, pubblicano anche più di un migliaio di tweet al giorno. Molti di questi sono profili legittimi: ad esempio quelli che pubblicano previsioni meteo, rilievi di attività sismica o, per fare un esempio interno al mondo social, la comparsa di trending topic e il loro andamento nella piattaforma Twitter. Di fatto, forniscono un servizio in tempo reale. Molti altri bot sono invece connessi a strategie di traffico a siti di news. Secondo una ricerca del Pew Reasearch Center, i due terzi circa dei tweet contenenti link a siti popolari vengono pubblicati da profili automatizzati, non rispondenti a persone fisiche.

I 500 account bot più attivi sarebbero la fonte del 22% dei tweet contenenti questo genere di link; in comparazione, i 500 profili umani più attivi sarebbero responsabili soltanto del 6% di questo genere di tweet.

A un’analisi più approfondita sull’orientamento ideologico dei link pubblicati, nei link dei tweet pubblicati da account automatizzati il Pew Reasearch Center non ha tuttavia rilevato una preminenza significativa di contenuti connotati in un senso o nell’altro: stando ai dati dell’indagine, i bot condividerebbero circa 41% di link di taglio liberal e il 44% di taglio conservatore.

Il prossimo step di una possibile politica di bonifica della piattaforma potrebbe probabilmente essere finalizzato a stabilire una policy di presenza dei bot su Twitter: quali finalità sono ammissibili? Quali criteri di trasparenza nella gestione dell’account vanno garantiti? Quale equilibrio deve essere trovato con la libertà di fare di un proprio account Twitter l’uso che si ritiene più opportuno? Le regole già esistono, osserva qualcuno, forse si tratterebbe solo di applicarle.

Nel frattempo, bravo Twitter.

Marco Borraccino

Contratto di governo: è il Facebook Live l’ordine del tempo nuovo M5S – Lega

Il governo Lega – 5 Stelle cambierà l’Italia? Il contratto di governo reggerà alla prova dei cinque anni di legislatura? Mentre la trattativa tra Luigi Di Maio e Matteo Salvini è ormai alla stretta finale, possiamo senza dubbio individuare un elemento emergente di questo tempo nuovo che si sta aprendo: l’utilizzo metodico del Facebook Live, la diretta del leader della propria pagina Facebook, quale mezzo di posizionamento politico e mediatico. Un format video attraverso cui i protagonisti della scena politica si rivolgono in modalità diretta e indifferenziata tanto ai cittadini quanto ai media, di fatto scavalcando i professionisti dell’informazione. Questa scelta di comunicazione non è certo una novità di queste ultime settimane: come abbiamo visto a suo tempo, è anche grazie al Live, all’utilizzo di questo contenuto digitale “nativo”, pubblicato esclusivamente su Facebook, che Di Maio e Salvini hanno potuto registrare in campagna elettorale una crescita delle loro fan base molto più alta rispetto a quella dei loro competitor. Ma le dirette di questi ultimi giorni dimostrano che questo format si è consolidato, che questa scelta di canale può far parte di un approccio strategico non soltanto quando va costruito il consenso elettorale, ma anche quando occorre comunicare la propria posizione nei frangenti più delicati di una legislatura.

Lo abbiamo visto fare martedì nel tardo pomeriggio a Luigi Di Maio, la cui diretta ha raccolto quasi due milioni di visualizzazioni.

In questa diretta Luigi Di Maio spiega la scelta del termine “contratto di governo” rispetto ad alleanza di governo: un patto basato sugli obiettivi. E non perde occasione di attaccare gli “opinionisti” del sistema mediatico tradizionale che proprio sul termine sul contratto di governo hanno ironizzato nei giorni scorsi. I dati di coinvolgimento sui social sono consistenti: più di 104mila reactions, 45mila di condivisioni, più di 65 mila commenti.

Il giorno dopo, la stessa scelta di comunicazione è fatta dall’altro protagonista della trattativa di governo, Matteo Salvini. Ad annunciarlo è il suo digital strategist Luca Morisi, che in due tweet successivi racconterà anche il dietro le quinte della diretta (prima con Salvini poi direttamente al tavolo delle trattative).

L’intervento di Salvini è una risposta alle prime critiche ricevute alla bozza di contratto di governo e alla copertura che ne è stata data dai giornali. Il video viene rilanciato in diretta da SKy tg 24 e Lorenzo Pregliasco di Youtrend su Twitter lo definisce “un format consueto, che ci dice un po’ quanto è cambiato il mondo”.

Nelle stesse ore, secondo i dati Talkwalker, l’hashtag #contrattodigoverno raggiunge il suo apice. Al momento l’hashtag 37mila mentions, con più di 14 mila utenti unici nel flusso. Alla conversazione hanno partecipato molti protagonisti della scena politica e social: da Maurizio Martina e Carlo Cottarelli a Osho. Una notizia di cui si è visto nascere e costruire il flusso quasi esclusivamente in rete e che riassumiamo in questa infografica.

Sergio Lepri, direttore Ansa dal 1961 al 1991, nel 2005 scriveva: «il giornalismo è mediazione tra fonti e i fruitori dell’informazione. E’ chiaro che internet, permettendo l’accesso alle fonti primarie rischia di eliminare ogni forma di mediazione giornalistica». Quello a cui stiamo assistendo in questi giorni conferma appieno l’irreversibilità di questa tendenza: per chiunque abbia un canale social solido, frequentato e conosciuto il newsmaking, il processo di costruzione della notizia è oggi praticabile direttamente sulle nuove piattaforme. Il protagonista è il contenuto, non occorre la mediazione giornalistica: la notizia è, appunto, disintermediata. Il flusso in tempo reale dell’online dispiega, nel Facebook Live, tutta la sua potenza dirompente su altri cicli produttivi chiusi dell’informazione, come ad esempio quello cartaceo, la cui capacità di raccontare la contemporaneità potrà probabilmente trovare efficacia solo quando sarà in grado di offrire analisi di respiro più ampio. La cronaca è altrove.

Marco Borraccino

AI, Automazione, Data Science: il giornalismo cerca alleati contro le fake news

12 gennaio 2018. Mark Zuckerberg annuncia importanti cambi nell’algoritmo Facebook. “You’ll see less public content like posts from businesses, brands, and media” scriveva in un post dalla sua pagina “and the public content you see more will be held to the same standard – it should encourage meaningful interactions between people”. Dopo anni di controverso rapporto con il più frequentato dei social media, dalla progressiva perdita di peso delle pagine ufficiali passando per la non felicissima esperienza degli istant articles, l’editoria mondiale si è sentita nuovamente davanti a una penalizzazione del gigante Menlo Park. In realtà le edizioni on line dei quotidiani non sembrano aver ricevuto contraccolpi letali: alcune settimane fa, un report di Newswhip mostrava che da questo punto di vista non molto è cambiato in questi mesi. Secondo i rilievi dell’indagine, infatti, in cima al proprio feed gli utenti continuano a trovare tuttora le condivisioni di breaking news o notizie in tempo reale dalle testate giornalistiche. Ma Newswhip sottolineava contestualmente anche un altro punto: la questione delle fake news è più aperta che mai. Su Facebook continuano infatti ad attrarre vaste audience anche gli editori che fanno leva sul complottismo, sulla paura, sulla rabbia. E la scorsa settimana a Perugia, nella dodicesima edizione del Festival del giornalismo, il tema del sensazionalismo, delle storture della “popularity” dei contenuti, dei possibili antidoti del giornalismo, è rimbalzato in tanti interventi.

Nella presentazione Infowar e Digital propaganda Daniele Chieffi, direttore della comunicazione digitale Agi, ha spiegato il funzionamento di alcune meccaniche con estrema chiarezza: “clicco una volta un articolo sulla violenza nell’immigrazione? Da due volte, l’algoritmo la volta successiva mi mostrerà quel tipo di contenuto per tre volte. Poi cinque, poi dieci, poi  venti. E tutto questo crea delle bolle informative, le echo chamber, che alimentano le nostre convinzioni. Considerato che il 76% dei giovani si informa su Facebook”, aggiunge “capite bene che impatto può avere questa meccanica”. Rischi noti e quanto mai attuali dell’ecosistema digitale, che potrebbero però trovare proprio nelle nuove tecnologie un alleato inatteso.

Il panel discussion “Disinformazione e Intelligenza artificiale: sfide e opportunità” ha affrontato apertamente questo argomento. Negli interventi dei relatori molti scenari sulle nuove possibilità ma anche molta prudenza. “Gli algoritmi hanno chiaramente un problema di identificazione del sensazionalismo” ha detto Lisa-Maria Neudert, dell’Oxford Internet Institute. E si sta lavorando, ha spiegato, affinché l’intelligenza artificiale quindi possa identificare, verificare e correggere la disinformazione. “Però non è ancora così semplice” avverte “perché ci sono ostacoli nella contestualizzazione, nel riconoscimento di un eventuale machine bias, nell’applicazione su scala: gestire grossi data base è un problema”. “Dunque” ha concluso “attualmente l’azione di debunking attraverso l’AI deve avvenire sempre attraverso l’azione umana”. Nello stesso panel è intervenuta anche Amy Zhang, membro del computer Science e Artificial Intelligence Lab del MIT e della Credibility Coalition, che sta lavorando su nuovi metodi di valutazione della credibilità di un contenuto informativo. “Abbiamo in cantiere vari progetti che, tramite i tool, tentano di rispondere a queste domande: cos’è un contenuto credibile? E possiamo convergere su modi scientifici e di sistema per valutare la credibilità di un’informazione? E se si, come possiamo applicarli su scala?”. “Il primo pilot della coalition” ha raccontato “è stato un progetto su cinquanta articoli, analizzato attraverso il tool Texttresher. E abbiamo lavorato su alcuni parametri fissi nella valutazione di credibilità del contenuto giornalistico: la quantità di pubblicità presente ad esempio, e l’aggressività della pubblicità stessa”. La stessa Zhang riconosce però la difficoltà nel trovare correlazioni inequivocabili tra la presenza di advertising e la credibilità di un contenuto.

Martin Robbins, intervenuto subito dopo, ha esposto l’esperienza di Factmata, community di factchecking che si fonda su applicazioni di Artificial Intelligence: “cerchiamo di agire in logiche di scala molto ampie e stiamo cercando di preparare i nostri sistemi a farlo. Però certo l’AI non è una formula magica che può risolvere da sola tutti i problemi”. E ha poi proseguito, a proposito di giornalismo e social media: “uno dei problemi di Twitter e di Facebook è che sono piattaforme che hanno molto a che fare con ciò che crea engagement tra le persone, ma poco con la qualità di quello che c’è. Popularity versus credibility: questa è la frattura”. Su questo punto ha ripreso la parola Amy Zhang sottolineando che uno degli indicatori dei progetti di Credibility Coalition è proprio quanto il tono di voce di un articolo sia emotional. “Io penso” ha concluso “che i trending topic basati della popolarità caleranno di importanza e si riaprirà uno spazio per gli esperti”.

Nel frattempo, tuttavia, il dibattito sul nuovo rapporto giornalismo e tecnologia è apertissimo. Julia Angwin di ProPublica, intervistata da Fabio Chiusi nel panel Algoritmi, Potere e Responsabilità, si è occupata lungamente dell’accountability degli algoritmi e nei suoi lavori ha ben sottolineato gli attuali limiti dell’automazione, tuttavia ha sottolineato la necessità che i nuovi giornalisti siano maggiormente tech-litered rispetto al passato. Perché è chiaro che l’utilizzo dell’AI richiederà sempre di più un approccio multidisciplinare del fattore umano. E le nuove skill del resto  sembrano essere già entrate nella quotidianità di molte testate, come hanno raccontato gli speaker del panel Automazione, Realtà aumentata e intelligenza artificiale in redazione. Anne-Marie Tomchack di Mashable UK ha esposto l’esperienza della sua redazione con Velocity, un tool personalizzabile, in uso già da anni, che consente di prevedere quali storie funzioneranno meglio sui social. “Ci sono grandi possibilità ma anche grossi rischi”, ha detto. “Perché gli algoritmi possono creare fake news: gli algoritmi stessi quindi devono essere più intelligenti e i giornalisti hanno un ruolo importante anche nel controllare che queste tecnologie effettivamente funzionino. Il tema dello sviluppo delle piattaforme va di pari passo con quello dell’etica delle nuove tecnologie”. Il tema ineludibile, ed emerge in tanti interventi, non è tecnico ma culturale.  “Bisogna sempre tenere a mente il ruolo degli esseri umani”, spiega Francesco Marconi, direttore R&D del Wall Street Journal. “C’è molto lavoro editoriale dietro l’automazione, dietro i template: tutti i processi di validazione dei dati sono guidati dall’uomo. La vera differenza è che siamo passati da un modo lineare a un modo dinamico di produrre notizie:  i giornalisti oggi sono in un certo senso anche scienziati e sperimentano, e questo è un modo di creare un’organizzazione”. Anche lo stesso Marconi però in chiusura del suo intervento si sofferma sull’etica: “il giornalismo dev’essere fondato sulla trasparenza. Lo si chiede alle fonti, dev’essere chiesto anche al modo in cui costruiamo le macchine”. L’uso delle tecnologie di automazione e intelligenza artificiale è approdato anche in Italia grazie a Rep, l’app premium di Repubblica, raccontata da Andrea Iannuzzi: “cerchiamo di offrire servizi all’utente di Rep anche attraverso il monitoraggio dei suoi dati dell’utente e le sue interazioni, per ottimizzare il flusso dei contenuti che proponiamo”. Lo stesso Iannuzzi racconta però anche gli ostacoli strutturali e contingenti che questo processo di innovazione sta incontrando in Italia. “L’uso dell’intelligenza artificiale da noi è ancora in uno stadio iniziale: il machine learning non può fare in italiano tutto ciò che riesce a fare in inglese” rileva. “Poi ci sono mansioni che per ragioni sindacali o organizzative devono essere segmentate in più figure. All’interno del nostro gruppo editoriale c’è però il visual lab in cui stiamo mettendo insieme figure professionali diverse per farle lavorare insieme”.

Per chiudere con un’esperienza italiana, si segnala infine l’approccio al data journalism condotto da più di un anno da Agi con redazioni esterne, esposto dal condirettore Marco Pretallesi nel panel Fatti, dati, mobile. “Io e Riccardo Luna ci siamo insediati all’inizio di ottobre di un anno fa, e quasi contestualmente è merso il termine post-verità. Per questo abbiamo sintetizzato il nostro indirizzo con l’hashtag #laveritàconta. Però un conto è lo slogan, un conto è farlo e per questo abbiamo deciso di dare spazio a dati e factchecking e c’è stato bisogno di competenze specifiche, di coinvolgere le realtà migliori”. Nel panel sono state raccontate le collaborazioni strutturali che Agi ha allestito con Pagella Politica che, ha raccontato Giovanni Zagni, ha l’obiettivo di offrire ai lettori il contesto delle dichiarazioni pubbliche per verificarne l’attendibilità. Analogo rapporto è stato instaurato anche con Formica Blu, rappresentata da Elisabetta Tola, che fornisce articoli long form improntati sull’utilizzo dei dati, e Youtrend, che, racconta Lorenzo Pregliasco, con il medesimo approccio improntato sui dati fa analisi politica. Un modello organizzativo che, ha detto Pratellesi, richiede tempo e investimenti.

Marco Borraccino

 

Qui i miei articoli sulle precedenti edizioni del Festival Internazionale del giornalismo:

2017

Festival del giornalismo di Perugia 2017, fake news: l’antidoto è riscoprire la lentezza

2016

Festival del giornalismo Perugia 2016, il futuro passa dal mobile. E dall’Africa…

2015

Festival del giornalismo: come sostenere una testata online. A Perugia le idee degli altri

Tv e la sua seconda vita: da ‘cattiva maestra’ a dispositivo ‘smart’

2014

Festival del giornalismo di Perugia, si riparte da Snowden

Quel monarca assoluto di nome Google News

Il lettore 2.0, watchdog dei media

Big Data e codice: così due studenti della Sapienza hanno analizzato le elezioni su Twitter

I social media sono indicatori credibili dell’andamento di una campagna elettorale? Ci siamo interrogati in tanti a tal riguardo. E la misurabilità, l’ascolto, i risultati dei profili social sono stati oggetto di indagini molteplici e dense, negli ultimi mesi: me ne sono occupato io su questo blog, ma anche molti altri, ognuno con un taglio diverso. Qualcuno si è affidato a tool molto conosciuti in ambito social, altri hanno allestito dei veri e propri team multidisciplinari di sviluppatori e analisti. Altri ancora hanno invece approfittato delle elezioni politiche per costruire, silenziosamente, un proprio modello di monitoraggio e mettere in pratica quanto avevano appreso in aula qualche settimana prima: è il caso di Davide Aureli e Valerio Guarrasi, due studenti di 23 anni iscritti al corso di laurea in Data Science della facoltà di Scienze Statistiche dell’Università La Sapienza di Roma. Dopo la prima messa in onda de “Lo Stato Social”, mi hanno contattato per condividere i loro rilievi e farmi sapere come hanno lavorato: risultati e metodo che hanno messo a disposizione di tutti su Github, una piattaforma social per la programmazione condivisa.

Aureli e Guarrasi hanno analizzato i dati provenienti da Twitter negli ultimi otto giorni di campagna elettorale, prendendo in esame un bacino complessivo di 980 profili Twitter in tutto e 8375 tweet. “Siamo partiti selezionando alcuni profili di partito e avviando lo ‘streamer’, un programma che osserva questi profili” mi hanno spiegato. “Appena uno di questi profili pubblicava un tweet, questo veniva raccolto nei nostri database. Lo streamer poi ha continuato a girare per tutta la settimana”. La quantità dei profili monitorati e dei post ottenuti ha infatti richiesto che un computer restasse acceso per tutta la settimana soltanto per raccogliere i dati. “Non volevamo concentrarci solamente sui leader di ogni partito ma raccogliere i tweet di tutti i candidati delle elezioni del 4 marzo e anche delle pagine dei loro partiti: in un secondo momento, ci siamo concentrati su tutti i tweet che avessero ottenuto come minimo 5 favoriti e 5 RT”.

A tutti gli effetti, Aureli e Guarrasi hanno allestito in autonomia un tool in-house di social listening e monitoring, con un proprio metodo e funzionamento, in grado di analizzare metriche quantitative dei post come RT e favorites ma anche di dare indicazioni chiare sui temi chiave dell’ultima settimana di campagna elettorale. E nei loro rilievi finali ci sono molti elementi su cui convergono anche altre analisi.

Ad esempio, il fatto che la coalizione più attiva su Twitter sia stata quella di centrodestra (anche, aggiungono, a fronte di un numero complessivo di profili monitorati inferiore a quello di altri). Il partito più performante nelle loro analisi è risultato il Movimento 5 Stelle: i profili legati ai candidati e al movimento grillino sono stati infatti quelli che, mediamente, hanno ottenuto il maggior numero di RT e favorites.

Inoltre, osservano Aureli e Guarrasi, “abbiamo notato che i rappresentanti dei partiti hanno ricevuto su Twitter più attenzione ogni qual volta che hanno offeso o criticato i loro rivali, piuttosto che esposto idee e proposte”. “Gli utenti Twitter”, dicono nelle loro conclusioni, “sono altamente motivati, più giovani della media e più spesso uomini quando coinvolti in thread di dibattito politico: analizzare questa piattaforma può dunque aiutarci a comprendere dove si posizionano individualmente le persone altamente motivate in relazione al discorso pubblico”.

Marco Borraccino