la società

Fake news: non credere a tutto quello che leggi, vedi o ascolti

 

Fake news

Il futuro delle false notizie: non credere a tutto quello che leggi, vedi o ascolti. Una nuova generazione di strumenti per la manipolazione video e audio consentono la creazione di allarmanti filmati realistici di notizie (false).

Fake news

di O.Solon
(Traduzione Redazione Modus)

Fake news

   Il progetto dell'Università di Washington "Sintetizzare Obama" ha preso
l'audio da uno dei discorsi di Obama e lo ha usato per animare il suo volto in
altri video completamente diversi.

 

Nell’epoca di Photoshop, filtri e social media, molti di noi sono abituati a vedere immagini manipolate: i soggetti diventano più sottili e lisci o, nel caso di Snapchat, trasformati in cuccioli.

Tuttavia, c’è una nuova generazione di strumenti di manipolazione video e audio, resa possibile da avanzamenti nell’intelligenza artificiale e nella grafica computerizzata, che consentiranno la creazione di un filmato realistico di figure pubbliche che sembrano dire, beh… tutto. Trump che dichiarerà la sua propensione per gli sport acquatici. Hillary Clinton descriverà i bambini da lei rapiti che tiene prigionieri nella sua cantina. Tom Cruise finalmente ammetterà ciò che sospettavamo tutti … che è un Brony *.

 

SET 072917-01-662

 

Questo è il futuro delle fake news, le false notizie. A lungo ci è stato detto di non credere a tutto quello che leggiamo, ma ben presto dovremo mettere in discussione tutto ciò che vediamo e ascoltiamo.

Per ora, ci sono diversi gruppi di ricerca che lavorano per catturare e sintetizzare diversi componenti visive e audio del comportamento umano.

Il software sviluppato presso la Stanford University è in grado di manipolare video di personaggi pubblici per consentire a una seconda persona di metter loro le parole in bocca – in tempo reale. Face2Face cattura le espressioni facciali di una seconda persona mentre questa parla in una webcam e poi traspone questi movimenti direttamente sul viso della persona nel video originale. Il team di ricerca ha dimostrato di cosa sia capace la loro tecnologia usando video di George W Bush, Vladimir Putin e Donald Trump come dei burattini .

 Fake news Fake news Fake news

  Il software Face2Face ti permette di agire come burattinaio di celebrità e
 di politici, letteralmente facendogli fare espressioni volute e mettendogli le
 parole in bocca.

 

Da solo Face2Face è un giochetto divertente per la creazione di meme e per intrattenere i conduttori di talk show a tarda sera. Tuttavia, con l’aggiunta di una voce sintetizzata, diventa più convincente – non solo il burattino digitale sembra il politico, ma può anche avere la medesima voce del politico di turno.

Un team di ricerca presso l’Università dell’Alabama a Birmingham sta lavorando alla rappresentazione della voce. Con 3-5 minuti di audio della voce di una “vittima” – presa in diretta o da video o da spettacoli radio o di YouTube – un utente malintenzionato può creare una voce sintetizzata che possa ingannare sia gli umani che i sistemi di sicurezza biometrici usati da alcune banche e smartphone. L’hacker può poi parlare in un microfono e il software gli convertirà la voce in modo che le parole suonano come se fossero parlate dalla “vittima” – sia che si tratti via telefono o in un show radiofonico.

La start up canadese Lyrebird ha sviluppato capacità simili, che posson essere utilizzate per trasformare sartorialmente il testo in audiolibri “letti” da voci famose o per personaggi in videogiochi.

Sebbene le loro intenzioni possano essere buone, la tecnologia del morphing di una voce potrebbe essere combinata con la tecnologia morphing della faccia per creare convincenti false dichiarazioni di figure pubbliche.

Basta guardare il progetto Synthesizing Obama dell’Università di Washington, dove hanno preso l’audio da uno dei discorsi di Obama e lo hanno usato per animare il suo volto in un video completamente diverso con incredibile precisione (grazie alla formazione di una rete neurale (IA) ricorrente con ore di filmati del soggetto), per avere un senso di quanto insidiose queste adulterazioni possono essere.

Al di là delle false notizie, ci sono molte altre implicazioni, ha affermato Nitesh Saxena, professore associato e direttore di ricerca dell’Università dell’Alabama presso il dipartimento di informatica di Birmingham. “Potresti lasciare falsi messaggi vocali fingendo di essere la mamma di qualcuno. O insultare qualcuno e inviare i campioni audio su un sito online “.

Queste tecnologie di morphing non sono ancora perfette. Le espressioni facciali nei video possono sembrare un po’ distorte o innaturali e le voci possono suonare un po’ robotiche.

Ma con un po’ di tempo, saranno in grado di ricreare fedelmente il suono o l’aspetto di una persona – al punto in cui potrebbe essere molto difficile per gli esseri umani rilevare la frode.

Data l’erosione di fiducia nei media e la diffusa propagazione di truffe tramite i social media, diventerà ancora più importante per le organizzazioni di notizie esaminare contenuti che sembrano e suonano come veri.

I segni indicativi saranno dove è stato creato il video o l’audio, chi altro era presente all’evento come testimoni e se le condizioni meteorologiche corrispondono ai dati registrati di quel giorno.

Sarà necessario anche guardare l’illuminazione e le ombre nel video, se tutti gli elementi presenti nel fotogramma hanno la giusta dimensione e se l’audio è sincronizzato perfettamente, ha detto Mandy Jenkins, dalla società di notizie sociali Storyful, specializzata nella verifica di contenuti delle news.

Il contenuto manipolato potrebbe non passare il controllo di una rigorosa redazione, ma se pubblicato come video granuloso nei social potrebbe diffondersi viralmente e far scattare un disastro di pubbliche relazioni, un disastro politico o diplomatico. Immaginiamo Trump che dichiara guerra alla Corea del Nord, per esempio.

Se qualcuno sembra Trump e parla come Trump penseranno che sia Trump“, ha detto Saxena.

Vediamo già che non è necessario manipolare né audio né video per far sì che le persone credano a qualcosa che non è vero“, ha aggiunto Jenkins. “Queste tecnologie hanno il potenziale di rendere tutto ancora peggio“.

Fake news

 

 

Nota * :
La serie I Little Pony ha suscitato l'inaspettato interesse di un vasto gruppo di
fan adulti, in gran parte maschi, fin dalla sua prima messa in onda; questi fan,
che sono stati attratti dai personaggi, dalle trame e dall'animazione e
influenzati dalla propagazione dello show come fenomeno di Internet, hanno
adottato il nome brony (al plurale bronies) dalla fusione delle parole inglesi
bro ("fratello") e pony.

 

 

 

 

BLO linea separ 01-662

 

 

 

 

 

erotismo

Ringraziamo tutti i numerosi lettori di Modus, che con la loro attenzione regolare o sporadica danno senso al nostro lavoro.
A quelli che gradirebbero essere informati sulle nostre pubblicazioni in tempo reale, e hanno un profilo attivo su Facebook, consigliamo di mettere il like sulla fan page: riceveranno senza dover fare l’accesso al sito il link di tutti i nuovi articoli.

La redazione

0 lettori hanno messo "mi piace"
Print Friendly, PDF & Email
Share:

Leave a reply

WordPress Appliance - Powered by TurnKey Linux