Molti contenuti generati dall’intelligenza artificiale sono stati utilizzati per esprimere supporto o fandom di determinati candidati. Ad esempio, un video generato dall’intelligenza artificiale di Donald Trump ed Elon Musk che ballano al ritmo della canzone dei BeeGees “Stayin’ Alive” è stato condiviso milioni di volte sui social media, incluso dal senatore Mike Lee, un repubblicano dello Utah.
“È tutta una questione di segnalazione sociale. Sono tutte le ragioni per cui le persone condividono queste cose. Non è l’intelligenza artificiale. Stiamo vedendo gli effetti di un elettorato polarizzato”, afferma Bruce Schneier, esperto di tecnologie di interesse pubblico e docente alla Harvard Kennedy School. “Non è che abbiamo avuto elezioni perfette nel corso della nostra storia e ora all’improvviso c’è l’intelligenza artificiale ed è tutta disinformazione.”
Ma non fraintenderlo: ecco erano deepfake fuorvianti che si sono diffusi durante queste elezioni. Ad esempio, nei giorni precedenti le elezioni in Bangladesh, sono circolati online deepfake che incoraggiavano i sostenitori di uno dei partiti politici del paese a boicottare il voto. Sam Gregory, direttore del programma dell’organizzazione no-profit Witness, che aiuta le persone a utilizzare la tecnologia per sostenere i diritti umani e gestisce un programma di rilevamento a risposta rapida per organizzazioni della società civile e giornalisti, afferma che quest’anno il suo team ha notato un aumento dei casi di deepfake.
“In molteplici contesti elettorali”, dice, “ci sono stati esempi di uso reale, ingannevole o confuso, di media sintetici in formato audio, video e immagine che hanno sconcertato i giornalisti o che non è stato possibile per loro verificare o contestare completamente. ” Ciò che questo rivela, dice, è che gli strumenti e i sistemi attualmente in atto per rilevare i media generati dall’intelligenza artificiale sono ancora in ritardo rispetto al ritmo con cui la tecnologia si sta sviluppando. In luoghi al di fuori degli Stati Uniti e dell’Europa occidentale, questi strumenti di rilevamento sono ancora meno affidabili.
“Fortunatamente, l’intelligenza artificiale in modi ingannevoli non è stata utilizzata su larga scala nella maggior parte delle elezioni o in modi cruciali, ma è molto chiaro che c’è una lacuna negli strumenti di rilevamento e nell’accesso ad essi per le persone che ne hanno più bisogno”, afferma Gregory. “Questo non è il momento di compiacersi”.
L’esistenza stessa dei media sintetici, dice, ha significato che i politici sono stati in grado di sostenere che i media reali sono falsi, un fenomeno noto come il “dividendo del bugiardo”. Ad agosto, Donald Trump ha affermato che le immagini che mostrano grandi folle di persone che partecipavano alle manifestazioni per il vicepresidente Kamala Harris erano state generate dall’intelligenza artificiale. (Non lo erano.) Gregory dice che in un’analisi di tutti i rapporti inviati alla forza di risposta rapida di Witness, circa un terzo dei casi riguardava politici che usavano l’intelligenza artificiale per negare le prove di un evento reale, molti dei quali riguardavano conversazioni trapelate.