Capire l’AI oggi per avere uno sguardo sul mondo del domani: ne parliamo con Leila Belhadj Mohamed

0% Complete

Discutere sull’AI vuol dire discutere dell’Europa del futuro dopo queste turbolente elezioni, dell’impatto che l’intelligenza artificiale ha sul giornalismo e di come uno strumento con potenzialità enormi nell’automatizzare i lavori più duri e alienanti della persona stia facendo morti e brutalità a Gaza, a Kiev e in altri scenari di guerra e massacri in tutto il mondo.

Alla luce dei cambiamenti che stanno avvenendo nel Vecchio Continente, che sull’intelligenza artificiale ha creato il primo regolamento giuridico mondiale con l’AI ACT, abbiamo deciso di intervistare Leila Belhadj Mohamed, dottoressa in relazioni internazionali-cooperazione internazionale e giornalista per Lifegate, per comprendere gli sbocchi future dell’AI e di come sia fondamentale parlarne. Perché, come ha detto lei stessa, abbiamo una pistola nella camera e prima o poi qualcuno la utilizzerà.

Nel tuo lavoro, non solo con Lifegate ma anche nel documentarti su questioni di politica estera, intersezionalità e l’impatto che il clima ha sul nostro pianeta (in particolare sui flussi migratori), l’AI è stato uno strumento che ti ha permesso di assimilare contenuti e di crearne in maniera “diversa” rispetto a qualche anno fa?

«In realtà non ne faccio un grande uso. Al momento non faccio uso di nessun tipo di tecnologia di AI generativa, non perché io sia contro o pensi che sia il male assoluto, ma per due ragioni principali: innanzitutto dovrei studiare bene come usarla e poi, soprattutto, ho paura di diventarne dipendente. Mi capita piuttosto di usare sistemi a base di intelligenza artificiale per tradurre articoli o termini specifici. Questo non significa essere neoluddisti o non apprezzare la scienza algoritmica: sono strumenti importanti, impattanti, e penso dunque sia importante conoscerne i limiti e non abusarne. Il rischio secondo me è di diventarne completamente dipendenti, al punto di far fare tutto alla macchina. Chi fa il mio lavoro può concentrarsi sul capire come utilizzarlo come assistente (per esempio per la ricerca bibliografica), ma io non arriverei mai a far scrivere un articolo a ChatGPT. Spero che l’IA porti all’automazione per i lavori più meccanici e faticosi, ma che non arrivi a sostituire la creatività umana». 

Qualche settimana fa oltre 50 milioni di persone hanno condiviso la stessa storia su Instagram, con la scritta “All eyes on Rafah” e ritraente un campo profughi, in segno di opposizione al raid israeliano avvenuto su un campo profughi a Rafah che ha causato 45 morti e 180 feriti. Questa immagine è stata generata con l’IA. Qual è la tua posizione a riguardo? Noti anche tu questa ipocrisia dell’IA, cioè che da un lato sta contribuendo alle migliaia di morti palestinesi, e dall’altro ci coccola facendoci sentire di esserci spesi per la causa tramite la storia IG senza però metterci di fronte alla vera realtà delle brutalità in atto?

«Io ho un’opinione contrastante. Per me quella storia è stata una buffonata, al pari del quadratino nero del Black Lives Matter che girava al tempo. La cosa ancora più grave secondo me è che quell’immagine non aveva niente di Rafah. Era un campo profughi che non sembrava affatto quelli che davvero ci sono a Rafah, anzi all’inizio mi sembravano dei container. Poi dietro il campo ci sono le Alpi, delle montagne innevate messe lì totalmente a caso. Se non ci fosse scritto All eyes on Rafah nessuno capirebbe il riferimento alla Palestina (anche se addirittura ho letto anche di gente convinta che la storia fosse per solidarizzare con Rafael Nadal: guardandola velocemente, quella sabbia rossa ricorda più il campo del Roland Garros che Rafah). È attivismo performativo. Poi, io non penso che le persone l’abbiano condivisa in cattiva fede: noto piuttosto l’ingenuità del non sapere cosa si ha in mano. Le 50 milioni di condivisioni mi mettono qualche dubbio: sono davvero 50M o ci sono dei bot dietro? La seconda cosa che mi ha fatto storcere il naso è che fosse un’immagine creata da un account nuovo di tre giorni e con solo mille follower. Mi sembrava di rivedere quanto successo subito dopo la morte di Mahsa Amini, con la nascita di molti account con il suo nome nello username e la diffusione di un certo tipo di hashtag. Se l’IA fosse stata utilizzata per produrre un’immagine che veramente ricordasse Rafah per eludere la censura, allora avrebbe avuto senso. Ma quella foto non racconta nulla delle violenze di Gaza. Ma questo perché si pensa al benessere di chi vede l’immagine, non alla sofferenza di chi quelle violenze le subisce sulla sua pelle. Un’altra cosa che mi ha turbato di questo fenomeno è il fatto che, secondo me, le persone hanno condiviso la storia per essere loro i protagonisti. Tocca a me, quindi sono io il protagonista. Perché la nostra è una società di protagonismo assoluto. Sull’ipocrisia dell’IA, credo che questo valga per qualsiasi tecnologia: anche il motore a scoppio lo usiamo tanto per le ambulanze quanto per mezzi bellici. Ha senso però ricordare il tema dell’IA usata nella guerra. Da giornalista, il fatto che a essere diventata virale sia stata un’immagine creata dall’intelligenza artificiale e non una foto che davvero mostra la realtà di Gaza mi dà fastidio. Non era necessario che fosse una foto trigger con sangue e violenza: per me è molto più apprezzabile un’immagine come quella scattata da Fatima Shbair nel 2021. Ci sono molte altre foto che, come questa, sono rappresentative senza essere triggeranti. Ma dall’altro lato mi viene anche da dire: basta tutelare la nostra sensibilità. Ci devono triggerare. Credo che siamo arrivati a un punto in cui dobbiamo essere triggerati per chiedere la fine di qualsiasi genocidio in corso in questo momento. Forse è il caso di essere disturbati».

Quando pensiamo alla guerra, pensiamo a un fenomeno di violenza disumana, generativa di disagi e brutalità. Da qualche tempo la disumanità della guerra è diventata, oltre a questo, qualcosa proprio di letterale: l’intelligenza artificiale sta assumendo un ruolo sempre più preponderante nei conflitti armati. Ci spieghi questa evoluzione e come in concreto si sostanzia l’utilizzo dell’IA nelle guerre?

«Siamo arrivati a questo punto perché se c’è avanzamento tecnologico nel civile, automaticamente questo si applica anche al militare (basti pensare all’esempio degli aerei: Lufthansa è una delle migliori compagnie aeree perché la Germania tra le due Guerre non poteva sviluppare un’aviazione militare e quindi si è concentrata su quella civile, per poi riutilizzare quelle tecnologie nel militare). Io penso sempre al paradosso di Oppenheimer: abbiamo scoperto qualcosa di potentissimo come l’energia atomica e siamo finiti per utilizzarla come arma di distruzione di massa. Quindi nel momento in cui si creano infrastrutture critiche, anche tecnologiche (penso alla cyberwarfare, per esempio), queste possono essere utilizzate anche in un contesto bellico (ricordate gli episodi con Anonymous, gli attacchi hacker ai siti dei ministeri ecc.). Quindi secondo me è una naturale evoluzione.

Il problema sostanziale è che adesso non è più l’uomo che dice alla macchina cosa deve fare, ma è la macchina che dice all’uomo cosa fare. Questo è, ad esempio, il caso di Gaza. Prima (Israele già nel 2021 aveva utilizzato l’IA per condurre bombardamenti) c’erano dei risultati della macchina, dei bias più sofisticati, policy più specifiche rispetto ai cosiddetti “morti collaterali”. Adesso invece è l’esatto opposto: tutte queste cose sono state messe da parte; la macchina dice che va uccisa quella determinata persona e l’addetto ha solo 20 secondi per eventualmente interrompere l’operazione. Questa secondo me è la cosa più terrificante dell’utilizzo dell’IA nei conflitti in questo momento: viene meno la centralità della persona. E questo metodo ha una possibilità distruttiva devastante. Il fatto che venga meno il controllo umano è pericolosissimo: basti banalmente pensare ai casi di omonimia. Anche in Ucraina si usa l’IA nella guerra, ma in modo diverso: per controllare in tempo reale gli avanzamenti degli avversari, è stato utilizzato il riconoscimento facciale per identificare i soldati russi. Questo uso dell’intelligenza artificiale non è così sconvolgente come quello che se ne fa a Gaza, perché non è l’IA a stabilire chi deve essere ammazzato. Inoltre bisogna pensare, da un punto di vista etico, come Israele ha addestrato quell’intelligenza artificiale, su chi l’ha testata e soprattutto verso chi noi vendiamo quelle tecnologie. Ci sono diversi problemi etici. Secondo me in un contesto bellico non ne andrebbe consentito l’utilizzo. Quando parliamo di margine d’errore del sistema a base di IA, teniamo comunque presente che stiamo parlando di vite umane. Va regolamentata».

E infatti adesso proprio di regolamentazione parliamo. L’Unione Europea ha lavorato per creare una legge quadro per regolamentare l’intelligenza artificiale, con un focus sulla sicurezza e la protezione dei diritti fondamentali. Tuttavia, c’è il rischio che l’UE non riesca a regolamentare l’IA abbastanza rapidamente a causa della rapida evoluzione della tecnologia. Gli Stati Uniti, invece, utilizzano linee guida e discutono progetti di legge specifici, ma mancano di una legislazione federale complessiva sulla privacy e l’IA, il che li pone in una posizione di attesa nel dibattito globale. La Cina, infine, ha adottato un approccio più dinamico, sviluppando policy specifiche per affrontare le sfide dell’IA e modificandole rapidamente. Tuttavia, questa agilità potrebbe creare incertezze normative per le aziende, rischiando di ostacolare gli investimenti. Tra questi tre approcci, quale credi sia la via giusta o il sistema più adeguato da perseverare, soprattutto considerando i contesti politici (quello europeo e quello statunitense) in evoluzione? 

«Da un punto di vista di regolamentazione, di leggi sull’IA ce ne sono due: quella cinese (ma si limita all’IA generativa) e l’AI Act. L’AI Act è il primo regolamento complesso, cioè che tocca tutte le tipologie di IA, basato sul fattore di rischio. L’AI Act non è ancora entrato in vigore, ma per me è già problematico. Può essere sicuramente di ispirazione per le altre regolamentazioni in materia, ma l’AI Act – soprattutto per colpa del Consiglio dell’Unione Europea (formato dai ministri dei vari stati membri) – ha in sé dei buchi normativi che consentono l’utilizzo di determinate tecnologie da parte di Stati e forze di polizia. Quindi se da un lato nell’AI Act c’è una regolamentazione efficiente per quanto riguarda il rapporto tra le aziende e l’uso dell’intelligenza artificiale, dall’altro ci sono aspetti molto problematici. Questi sono essenzialmente due: il primo è la lista infinita di deroghe per l’utilizzo del riconoscimento facciale (ad esempio si consente la deroga per motivazioni di “sicurezza nazionale”, ma che cosa si intende per “sicurezza nazionale”? È una definizione troppo vaga, in cui è facile far rientrare anche aspetti come l’antiterrorismo), il secondo riguarda i settori in cui l’AI Act non si applica: ovviamente non si applica al settore militare – creando così un enorme vuoto legislativo -, alla sicurezza nazionale (perché materia esclusiva degli Stati), e nemmeno alla questione delle frontiere. L’AI Act tutela le persone solo in base alla loro cittadinanza: i migranti non sono tutelati, né si è capito se questo si indirizzi anche alle persone con permesso di soggiorno. Un mio collega, Davide Del Monte, l’altro giorno ha detto una cosa molto intelligente in Senato: se in una scena teatrale c’è una pistola sul tavolo, quella pistola verrà utilizzata. Se noi permettiamo che determinate tecnologie esistano, prima o poi queste verranno utilizzate. Fino a dieci anni fa associavamo queste tecnologie ai regimi autoritari. Ora ne dobbiamo parlare per le cosiddette democrazie. Non serve parlare di Iran, Cina, Russia… guardiamo a quelle che consideriamo democrazie: pensiamo alle telecamere biometriche disposte in Francia per le Olimpiadi, al caso del Comune di Roma nonostante la moratoria… è un problema. Oltre a creare una sorveglianza di massa, inevitabilmente saranno le comunità più marginalizzate ad essere targetizzate. Provate a immaginare se una come Le Pen avesse a disposizione dei sistemi di sorveglianza di massa e di polizia protettiva. Quindi secondo me il problema reale è che serve un’evoluzione nel diritto internazionale umanitario (che è rimasto fermo al 1952). Non c’è nessuna delle tre strade citate che manterrei. L’AI Act può essere una base, ma va modificato subito. Stiamo dando per scontato che al potere abbiamo persone di buon senso: noi non ce le abbiamo le persone di buonsenso al potere. Ci sono tantissimi casi vicino a noi (Como, Trento, Roma) che ci spiegano che questa cosa è invasiva e pericolosa». 

Il 9 dicembre del 2023 Ursula von der Leyen ha dichiarato come L’AI Act dell’UE è il primo quadro giuridico completo sull’intelligenza artificiale a livello mondiale. Quindi, questo è un momento storico. L’AI Act traspone i valori europei in una nuova era.” La nuova commissione UE continuerà questo percorso di regolamentazione dell’intelligenza artificiale come la conosciamo oggi? E che evoluzioni ci saranno dopo queste elezioni?

«Secondo me loro pensano di aver già completato il lavoro, anche se non è così. In questi due anni deve entrare in vigore l’AI Act, quindi bisogna seguire la messa in opera nei vari Stati. Ma non penso che il tema sarà più uno dei pilastri, cioè non ci sarà più un focus a livello di legislazione. Questo dipenderà molto dalla nuova Commissione che si andrà a formare, che indipendentemente dall’avere come presidente Ursula Von der Leyen, il resto della Commissione verrà eletta sia dal Parlamento Europeo che dal Consiglio Europeo (formato dai capi di stato e dai primi ministri degli stati membri). Il Consiglio Europeo odierno ha colori politici, e quindi valori ed intenzioni, molto diversi rispetto a quelli del 2019. Ripeto: ho come l’impressione che per loro i giochi si siano conclusi qui, quando proprio l’AI continua ad evolversi indipendentemente dalla lentezza del diritto».

Autori

17 gennaio 2004 come data fatidica, e da quel momento sono immerso nei libri, nei paesaggi di Sezze e nelle canzoni di Kendrick Lamar. Napoletano di fede e di sangue, ricomincio pure io da tre cose: ascoltare, guardare e parlare, o su questa pagina, scrivere.

Letizia Sala

Letizia Sala

Autrice

Collabora con noi

Sede di Generazione Magazine Sede di Generazione Magazine Sede di Generazione Magazine Sede di Generazione Magazine

Se pensi che Generazione sia il tuo mondo non esitare a contattarci compilando il form qui sotto!

    Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

    Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

    Chiudi