Con l’Intelligenza Artificiale verso le fake news automatizzate

Il lato oscuro del rapporto tra social media e Intelligenza Artificiale: come potrebbero diventare le fake news in un mondo di fotografie, video e audio sintetizzati dal nulla.

Arrivano le fake news automatizzate. A dire il vero le bufale, o “fake news” come vengono chiamate oggi, non sono certamente invenzione recente. Tuttavia, la rilevanza di queste assume un’altra dimensione nel momento in cui i mass-media giocano un ruolo attivo nella loro diffusione.

Nella storia delle bufale diventate “virali” grazie ai media ci sono stati casi particolarmente clamorosi. Questi casi prefigurarono una delle preoccupazioni maggiori sui mass-media, ovvero l’abilità di modificare l’opinione pubblica grazie all’enorme capillarità e diffusione.

La “Grande Burla della Luna”

Conosciuta come “The Great Moon Hoax”, viene considerata una delle burle più clamorose di tutti i tempi perpetrate tramite mass media.

Il 21 agosto del 1835, sulla seconda pagina del New York Sun, fa la sua apparizione un piccolo trafiletto, apparentemente ripreso dal supplemento del Edinburgh Courant. Il testo annuncia mirabolanti scoperte astronomiche che sarebbero state compiute dal già illustre Sir John Herschel tramite tecniche innovative.

First notice (source: Hoax.org)
Trafiletto anteprima (fonte: Hoax.org)

La settimana seguente, fa la sua apparizione in copertina un articolo intitolato

GREAT ASTRONOMICAL DISCOVERIES 
LATELY MADE 
BY SIR JOHN HERSCHEL, L.L.D. F.R.S. &c. 
At the Cape of Good Hope.

È il primo di una serie di sei articoli 1 , in cui si descrive come John Herschel dal Capo di Buona Speranza (dove peraltro era veramente stato), avesse scoperto nuove forme di vita sulla luna, tra unicorni blu, uomini alati e globuli balzellanti. La serie viene anche  tradotta l’anno successivo in Italiano, e pubblicata come Delle scoperte fatte nella luna del dottor Giovanni Herschel

Lithograph of the Ruby Colosseum from the New York Sun, August 28, 1835
Uomini lunari alati, litografia dal New York Sun, 28 agosto 1835

L’autore che viene riportato è un certo Dr Andrew Grant, presunto compagno di viaggio di Herschel.

Nonostante i sospetti del New York Herald, il vero autore ammise tutto pubblicamente solo nel 1840. Si trattava di Richard Adams Locke, uno dei due editor del Sun.

Se i media di allora erano abbastanza divisi sulla questione, la copertura che ne diedero contribuì all’entusiasmo e all’eccitazione generale che queste “scoperte” crearono.

Prima del 1830 una burla del genere non sarebbe stata nemmeno concepibile. Fu la prima sensazionale dimostrazione del potere dei mass-media che era nato dopo l’introduzione delle macchine da stampa a vapore.

La Guerra dei Mondi

Un secolo dopo la burla di Locke a mezzo stampa, non è più solo la stampa a coprire il territorio. Grazie alla radio i mass-media raggiungono tutte o quasi le abitazioni della popolazione americana.

Contesto storico

Siamo nell’ottobre 1938, e la situazione internazionale al di fuori degli Stati Uniti, sembra già avviata all’ineluttabile.

In Spagna impazza la guerra civile, la guerra tra Cina e Giappone è ancora in pieno svolgimento. La Germania nazista si è rimilitarizzata e ha già annesso l’Austria e i Sudeti senza sparare un colpo.

E le illusioni di pace di Chamberlain vengono duramente contestate da Churchill, che già teme le prossime pretese su Danzica.

I marziani nel New Jersey!

È proprio in questo contesto che la guerra approda anche sul territorio americano, con l’invasione del New Jersey da parte… dei marziani!

Nella sera del 30 ottobre, la CBS sta trasmettendo live musica dell’orchestra inventata di Ramon Raquello.

L’esecuzione viene però interrotta dopo pochi minuti da parte di un “reporter di Intercontinental Radio News” con un annuncio… particolare. Pare infatti che gli astronomi abbiano appena rilevato un’enorme fiamma blu eruttare dalla superficie di Marte.

fake news
Titoli dell’epoca

È solo l’inizio: da lì a poco un meteorite verrà “avvistato” cadere nel New Jersey. Secondo i “report” radiofonici emergeranno marziani a bordo di enormi veicoli su tre gambe. I report si susseguiranno freneticamente con tanto di interviste fittizie descriventi gli effetti catastrofici dell’invasione.

Si tratta ovviamente di una burla colossale, ispirata da “La Guerra dei Mondi”, romanzo scritto da H. G. Wells nel 1898.

Tutto l’apparato fu ideato e diretto da Orson Welles, e la leggenda vuole che mezza popolazione americana fosse gettata nel caos più totale.

In questo caso le “fake news” furono addirittura due. Una fu il racconto “in diretta” dell’invasione aliena, che portò comunque parecchi americani a crederci e a precipitarsi sul posto armati e pronti a combattere la minaccia. La seconda fu il mito, ancora oggi solido, della diffusione del panico su scala nazionale, con milioni di americani terrorizzati.

Ancora una volta i mass-media giocano un ruolo cruciale. La stampa che si affrettò a divulgare la notizia del panico dovuto alla burla, ma questa volta coadiuvata in modo decisivo da un media ancora più potente e pervasivo: la radio.

L’affare Sokal

Il mondo delle burle non ha risparmiato nemmeno le pubblicazioni accademiche.

Nel 1994 Alan Sokal invia a Social Text2 un articolo intitolato Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity. La rivista (che al tempo non praticava peer review) pubblicò l’articolo nella primavera del 1996.

La particolarità dell’articolo era che era composto interamente di frasi senza significato. Gli unici criteri erano che le parole suonassero bene assieme, e che il contenuto fosse allineato con l’ideologia della rivista.

Lo scopo che Sokal dichiarò successivamente su Lingua Franca, era quello di dimostrare il declino degli standard di rigore intellettuale delle riviste umanistiche dell’epoca3 .

Interessante anche il caso del 2005, dove tre studenti del MIT replicarono l’esperimento di Sokal, sviluppando SCIgen, un software rudimentale che generava in automatico pseudo-articoli “scientifici”.

Lo scopo qui era di portare all’attenzione pubblica la proliferazione di riviste “predatorie” senza scrupoli. Molte di queste infatti, dietro pagamento di cifre spesso sostanziali, accettavano qualsiasi genere di articolo senza nemmeno leggerlo.

Nel sito sono elencati una serie di altri articoli generati casualmente, che sono stati pubblicati.

Internet e la proliferazione delle “casse di risonanza”

Oggi con Internet il concetto di fake news assume una connotazione e una proporzione di  tutt’altro rilievo. Mentre Internet di per sé non raggiunge più persone di quante ne raggiungesse la radio, ha invece abbassato radicalmente la soglia di ingresso per la pubblicazione. Nell’era pre-Internet infatti i mass-media pur con la loro capillarità erano accessibili dalle masse quasi esclusivamente in modo passivo. Quelli che avevano accesso a radio e stampa per trasmettere contenuti erano decisamente pochi.

Oggi chiunque può pubblicare le proprie idee, ma soprattutto il nodo cruciale è che chiunque può fare da cassa di risonanza, e la velocità con cui una notizia o una bufala si diffondono è diventata esponenziale.

Le notizie sensazionalizzate piacciono, attirano visite, e chi legge sempre più spesso non ha nemmeno interesse a sapere se quello che ha davanti è vero o inventato. Questo traffico genera proventi per chi le scrive, incoraggiando ancora di più la produzione di fake news.

L’era dell’Intelligenza Artificiale e dei Big Data: disinformazione e fake news automatizzate

Fin qui le fake news citate erano per lo più dovute a errori o a burle. Tutt’al più (come nel caso di Sokal) avevano lo scopo di denuncia. Di altro respiro è l’impatto generato dalle campagne di disinformazione, laddove per “disinformazione” si intende la diffusione di notizie false e/o tendenziose con preciso intento di generare confusione e procurare danno.

La diffusione

“Quando What Happened, l’ultimo libro di Hillary Clinton debuttò su Amazon, la risposta fu incredibile… così incredibile che Amazon non ci credette e delle 1600 review ne cancellò 900 per essere dei sospetti falsi, scritti da persone che dicevano di adorare o odiare il libro, ma non l’avevano né acquistato, né (evidentemente viste le tempistiche) nemmeno letto.” (cit. da Could AI Be the Future of Fake News and Product Reviews?  – Scientific American).

È noto che nei social media la diffusione di notizie in generale non segue un percorso lineare, ma ad “hub”. In altre parole ci sono alcuni utenti particolarmente “influenti” e seguiti, spesso anche da centinaia di migliaia di followers. I post di questo tipo di utenti hanno una probabilità esponenzialmente più alta di diffondersi.

diffusione ad hub delle fake news automatizzate
Modello di diffusione a “hub”

 

Sono queste casse di risonanza a essere diventate target dei cosiddetti “social bot”, che Chengcheng Shao  della Indiana University ha trovato essere la maggior parte degli account che diffondono fake news.

La diffusione delle fake news sta rapidamente diventando un business su grande scala. Non si tratta più solamente dello studente che scrive dal suo garage, per qualche centinaio di dollari al giorno.

Oramai il gioco si sta spostando sulla vera e propria campagna di disinformazione. Lo scopo è spesso di arrivare a influenzare elezioni governative, o magari addirittura l’andamento del mercato finanziario.

Dati i volumi, l’automazione è oramai diventata un requisito. Anzi, possiamo dire che è verosimile che presto la sola falsificazione di notizie basate su testo non sarà più sufficiente. La tecnologia è quasi pronta per falsificare storie creando anche immagini, video e audio completamente dal nulla.

Arte o contraffazione? La sintesi di immagini

L’accessibilità di oggi ai big data ha reso possibile uno sviluppo degli algoritmi di Intelligenza Artificiale senza precedenti, e siamo passati senza quasi accorgercene dagli algoritmi di analisi a quelli di generazione.

La sintesi automatica delle immagini aveva già iniziato a guadagnare trazione con software come Pix2Pix, in grado di creare immagini fotorealistiche a partire da disegni tramite Reti Neurali Antagoniste (sarà materia di approfondimento in un altro articolo). Oggi emergono nuove tecnologie con risultati sempre più sorprendenti praticamente ogni giorno: StackGAN per esempio implementa due stadi di reti antagoniste, uno che produce un primo livello di immagini a bassa risoluzione, e un secondo stadio che sulla base di questo produce un’immagine più rifinita ad alta risoluzione, praticamente fotorealistica.

stackgan
Architettura di StackGAN

Arte o contraffazione? La sintesi di video

Non basta, La sintesi delle immagini si sta ora spostando verso la sua più naturale evoluzione: quella dei video.

Lo scorso agosto, la musicista Françoise Hardy, in tutta la bellezza dei suoi 20 anni appariva in un video di Youtube (sotto). La cantante rispondeva alle incalzanti domande di Chuck Todd (fuori campo) sul perché Trump avesse mandato il suo segretario di stampa Sean Spicer a mentire pubblicamente, parlando di “alternative facts”.

Cosa c’è di Strano? Beh, innanzitutto Françoise Hardy ha ora 73 anni, e la voce che si sente per chi non l’avesse già riconosciuta è quella di Kellyanne Conway. Ma la cosa sorprendente è che non si tratta semplicemente della voce di Kellyanne Conway messa su un video della Hardy, ma di un video interamente generato. Si tratta infatti di un lavoro di Mario Klingemann, che tramite (ancora una volta) reti neurali antagoniste è stato in grado, usando vecchi videoclip della cantante come training, di “ricreare” automaticamente il volto della Hardy, con il labiale sincronizzato alla voce di Kelyanne Conway!

Da segnalare anche DeepStereo, che a partire da diverse immagini di luoghi riesce a “predire” e ricostruire le scene come fossero riprese da punti di vista differenti

Arte o contraffazione? La sintesi vocale

La sintesi vocale è un ambito già ampiamente diffuso. Tuttavia, la tecnologia usata a livello commerciale (come Siri) è ancora costituita da frammenti registrati, poi concatenati assieme. Essendo inerentemente legata al set di frasi preregistrate, suona “vera” solo in determinate circostanze. Il risultato è che non è quindi ancora adatta a una “contraffazione” realistica.

Ma il “deep audio”, ovvero l’audio interamente generato tramite reti neurali, è un’altra storia. Si tratta di fare imparare alla rete le caratteristiche delle voci con cui viene alimentata nel training, e di ottenere ricostruzioni fedeli in qualsiasi contesto.

Poiché si tratta di lavorare direttamente su file audio grezzi, la tecnologia non è ancora disponibile su scala commerciale, ma c’è.

Il problema degli audio “grezzi” è che richiedono campionamenti molto pesanti (anche 16k al secondo). Inoltre le strutture di questo genere di files tendono ad emergere a varie scale temporali (vedi sotto).

Wave animation

Per esempio Google ha sviluppato Wavenet, una rete neurale convoluta che in fase di training viene alimentata con voci umane in forma d’onda grezza (wave). Wavenet determina il valore di campionamento in ogni singolo step basandosi sulla distribuzione probabilistica della rete.

Architecture animation
Animazione dell’architettura di Wavenet

Infine la rete è in grado di riprodurre persino suoni di “riempimento” come respiri, balbuzie etc (ascolta sotto un esempio).

Complessivamente, in confronto alle altrtest[/caption]ià impiegate da Google, i risultati sono decisamente superiori. Addirittura nel caso del Mandarino sono anche molto vicini alla performance umana.

 

Qui sotto un confronto tra campioni audio delle tecnologie di generazione di voce utilizzate da Google:

Tecnologia Parametrica

Tecnologia Concatenativa

Wavenet

Considerando anche i progressi nei campi di generazione immagini e video, non è difficile pensare a un futuro prossimo in cui sarà possibile non solo “creare” fotografie  e video di scene mai esistite, ma anche di mettere in bocca alle persone frasi completamente “create” dal nulla. Il mondo delle fake news e della disinformazione sta per entrare in una nuova radiosa era dove l’unico limite è l’immaginazione, e la differenza tra “fake” e realtà sarà sempre più sfumato.

Note

1. Per uscirne venne riportato che le osservazioni erano terminate a causa di un incendio che avrebbe ridotto il magico telescopio e l’intero laboratorio (!) in cenere.

2. Social Text, rivista di studi culturali postmoderni.

3. Successivamente, gli editori della rivista, pur rimpiangendo l’aver pubblicato il pezzo, pubblicarono un editoriale dove refutavano le conclusioni di Sokal sulla presunta mancanza di rigore del giornale, sostenendo di essersi accorti della “bizzarria” del pezzo, ma di averlo ritenuto un tentativo onesto di avventurarsi nel campo della filosofia del postmodernismo da parte di un professore di fisica.

4. Quando ne aveva 20 Todd non era ancora nato, e Trump stessp ovviamente non era presidente.

 

Links

The Great Moon Hoax

The Great Moon Hoax – History.com

The moon hoax; or, A discovery that the moon has a vast population of human beings – Internet Archives (Scansione dalla Smithsonian Library)

Sokal Affair

Sokal affair – Wikipedia

Editorial response to Sokal hoax by editors of Social Text (pdf)

A Physicist Experiments With Cultural Studies – Lingua Franca

SCIpher

How three MIT students fooled the world of scientific journals

Rooter: A Methodology for the Typical Unification of Access Points and Redundancy

SCIpher – A Scholarly Message Encoder

Fact checking e fake detection

Factmata

FactCheck.org – A Project of The Annenberg Public Policy Center

Could AI fight fake news? Yes—with the help of humans. – IBM iX

Fake News

How Fake News Goes Viral—Here’s the Math – Scientific American

Fake news ‘as a service’ booming among cybercrooks • The Register

BBC – Future – Lies, propaganda and fake news: A challenge for our age

How Data And Information Literacy Could End Fake News

Are Facebook and Twitter encouraging fake news? | Daily Mail Online

First Evidence That Social Bots Play a Major Role in Spreading Fake News – MIT Technology Review

Advertisers Try to Avoid the Web’s Dark Side, From Fake News to Extremist Videos – WSJ

A future of AI-generated fake news photos, hands off machine-learning boffins – and more • The Register

Inside the Macedonian fake-news complex

Break Your Own News – Breaking News Generator

Could AI Be the Future of Fake News and Product Reviews? – Scientific American

Fake news: you ain’t seen nothing yet – Creation stories

WaveNet: A Generative Model for Raw Audio

Rispondi

This site uses Akismet to reduce spam. Learn how your comment data is processed.