domenica 16 Giugno 2024

Quanto è diffusa la disinformazione sull’intelligenza artificiale? Cosa mostrano finora i nostri studi in India

1 settimana ago

Il crescente problema della disinformazione nell’intelligenza artificiale

La capacità sempre più evoluta dell’intelligenza artificiale generativa (genAI) nel creare contenuti autentici come testi, immagini, audio e video ha sollevato preoccupazioni globali. Questa tecnologia potrebbe alimentare la disinformazione e influenzare le narrazioni politiche, soprattutto in un anno di elezioni.

Negli ultimi 12 mesi, diversi deepfake di alto profilo generati da genAI hanno suscitato preoccupazione, tra cui immagini falsificate del candidato presidenziale Donald Trump accanto a sostenitori afroamericani e video di un politico slovacco che ammette di aver manipolato le elezioni.

Limiti negli studi sull’impatto della genAI sulla disinformazione

Pur rivolgendo l’attenzione sui deepfake, la ricerca sull’impatto della genAI nella diffusione della disinformazione è limitata. La mancanza di accesso a dati completi, per ragioni di privacy e restrizioni delle piattaforme di social media, impedisce una comprensione approfondita del fenomeno.

Non esistono dati concreti sulla frequenza con cui l’intelligenza artificiale genera fake news o sull’ampiezza della condivisione di queste informazioni ingannevoli nei social media. Queste lacune evidenziano le sfide nel contrastare la disinformazione guidata dall’intelligenza artificiale e sottolineano la necessità di una ricerca più approfondita.

Studi condotti in India sulla disinformazione via WhatsApp

Da oltre cinque anni, in India, sono in corso studi per comprendere come i partiti politici utilizzino WhatsApp per diffondere disinformazione. La raccolta di dati anonimi dalle aree rurali attraverso un metodo che garantisce la privacy ha contribuito a tracciare il modo in cui questa piattaforma influisce sull’opinione pubblica.

La diffusione di contenuti generati dall’intelligenza artificiale su WhatsApp in India

WhatsApp è un canale cruciale per la comunicazione politica in India, con un impatto analogo a Paesi come Brasile e Kenya. La ricerca si focalizza su utenti indiani non esperti di Internet, potenzialmente più suscettibili all’influenza dei contenuti generati dall’intelligenza artificiale.

Studio sull’Uttar Pradesh: un quadro rappresentativo

La ricerca si è concentrata sull’Uttar Pradesh, lo stato più popoloso dell’India. Quasi 500 utenti sono stati contattati per formare un campione rappresentativo in base a variabili demografiche come età, religione e casta. La raccolta dati è avvenuta in modo accurato, garantendo la privacy degli utenti.

Analisi dei messaggi virali su WhatsApp

Un’analisi condotta tra agosto e ottobre dello scorso anno ha fornito un vasto spettro di dati, inclusi circa due milioni di messaggi provenienti principalmente da gruppi WhatsApp privati. L’obiettivo era individuare i messaggi viralizzati, contrassegnati da WhatsApp come “inoltrati più volte”, a seguito di almeno cinque passaggi.

Identificazione dei contenuti generati dall’intelligenza artificiale

Non esistono ancora tecniche automatizzate per individuare su vasta scala i contenuti generati dall’intelligenza artificiale su WhatsApp. Il team ha esaminato manualmente 1.858 messaggi virali, focalizzandosi su possibili anomalie strutturali o fusioni innaturali caratteristiche di materiali prodotti da macchine.

Il potenziale impatto dei contenuti generati da intelligenza artificiale

Una ricerca ha rivelato che solo l’1% dei messaggi virali in India conteneva contenuti creati da genAI, suggerendo una bassa prevalenza durante le recenti elezioni generali. L’uso di genAI potrebbe non avere ancora un impatto significativo sulla disinformazione elettorale come temuto.

Il potere della genAI nel creare contenuti coinvolgenti

L’impatto della genAI sulla produzione di immagini e narrazioni avvincenti è un’area in cui la tecnologia mostra potenziale. I contenuti generati da intelligenza artificiale possono superare i limiti dei creatori di contenuti convenzionali.

Cosa mostrano i contenuti genAI?

Contenuti fuorvianti riguardanti progetti infrastrutturali sono stati individuati, come immagini di una stazione ferroviaria futuristica a Ayodhya. La modernizzazione delle infrastrutture è un obiettivo politico importante per il Bharatiya Janata Party, anche se non vi sono prove che lo collegano alla creazione di immagini genAI.

Le immagini generate dall’intelligenza artificiale diffuse attraverso i social media includono un modello di una moderna stazione ferroviaria ad Ayodhya.Crediti: K. Garimella, prestampa su github

Altri contenuti genAI sembrano proiettare una sorta di supremazia indù, con video e immagini che glorificano divinità e provocano tensioni religiose. I media generati dall’intelligenza artificiale spesso sfruttano eventi attuali per veicolare messaggi ideologici.

Come affrontare il potenziale impatto negativo

Pur al momento poco probabile che la genAI influenzi direttamente le elezioni, i casi documentati rivelano il suo potenziale per intensificare la disinformazione. È fondamentale monitorare e regolamentare l’uso di questa tecnologia per limitarne gli effetti dannosi sulle campagne politiche e sulla società.

Il potenziale della genAI nell’ambito della disinformazione

L’utilizzo della generazione automatica di contenuti visivi, combinato con l’intelligenza artificiale moderna, può sfumare il confine tra animazione e realtà, rendendo i contenuti più persuasivi. Tuttavia, è necessario approfondire ulteriormente questo argomento.

La sfida della disinformazione

La creazione di disinformazione tramite mezzi tradizionali, come l’attribuzione errata di immagini o l’utilizzo di software di fotoritocco, può avvenire anche senza l’intervento della genAI. Questo solleva la questione sul reale impatto di questa tecnologia nella diffusione di informazioni fuorvianti.

GenAI e la personalizzazione dei contenuti

La genAI, grazie alla sua capacità di generare rapidamente e a basso costo un elevato volume di immagini, offre la possibilità di personalizzare i contenuti per specifici gruppi culturali o sociali. Questo potrebbe rendere più complesso individuare l’origine del materiale e amplificarne l’impatto sulla società.

Monitoraggio costante e impatto della tecnologia

Data la rapida evoluzione della genAI, è essenziale monitorarne costantemente la diffusione e l’impatto in contesti diversi. Questo è particolarmente rilevante in ambito politico e sociale, dove la tecnologia potrebbe influenzare pesantemente l’opinione pubblica.

Implicazioni della genAI nella società e politica

Democratizzazione della produzione di contenuti

La genAI potrebbe ridurre il controllo esercitato dai partiti politici sulla produzione di contenuti, favorendo una maggiore diversità e democratizzazione nell’informazione. Tuttavia, bisognerà monitorare da vicino le possibili distorsioni che questa democratizzazione potrebbe generare.

Il ruolo delle piattaforme social

Le aziende di social media devono affrontare sfide nella moderazione dei contenuti generati dalla genAI. L’ampia diffusione dei materiali personalizzati potrebbe amplificare i pregiudizi esistenti e alimentare la disinformazione, se non accompagnata da efficaci meccanismi di regolamentazione.

Influenza delle credenze causata dalla genAI

La genAI potrebbe rendere sempre più difficile distinguere la realtà dalla finzione, creando confusione nelle credenze degli utenti. È fondamentale sensibilizzare sulle fonti dei contenuti e implementare strategie di verifica per contrastare questo fenomeno.

Strategie per affrontare la disinformazione nell’era della genAI

Necessità di regolamentazione e consapevolezza pubblica

Sono necessari nuovi quadri normativi che coinvolgano diverse parti interessate per regolare l’uso dell’IA. È cruciale educare il pubblico sulle conseguenze dei contenuti generati dalla genAI e promuovere la verifica delle fonti per contrastare la disinformazione.

Protezione della privacy e sicurezza digitale

È importante adottare misure caute nella lotta alla disinformazione alimentata dall’IA, evitando proposte che possano compromettere la crittografia end-to-end su piattaforme come WhatsApp. La sicurezza digitale e la privacy devono essere preservate senza compromessi.

Segui su...

Lascia un commento

Your email address will not be published.

Don't Miss

L’esoscheletro robotico si adatta a chi lo indossa attraverso un addestramento simulato

Addestrare un esoscheletro robotico: una nuova strategia innovativa Uno studio recente propone

I ribosomi inaspettatamente al chiaro di luna come attivatori dell’enzima angiogenina

Ribosomi e Angiogenina: una Relazione Inaspettata Uno studio pubblicato su Natura il