Il successo nella creazione dell’intelligenza artificiale potrebbe essere il più grande evento nella storia umana. Purtroppo, potrebbe anche essere l’ultimo, a meno che non impariamo a evitarne i rischi.
Steven Hawking
La parola intelligenza deriva dal latino “intelligentia”, che deriva da “intelligere”. “Intelligere” è sua volta un verbo formato da due parole: “intus” e “legere”. In sintesi, leggere dentro. Chi è intelligente è in grado di comprendere la realtà e le varie connessioni nascoste tra la teoria ed il fenomeno che costituisce, invece, la parte empirica della realtà.
L’intelligenza artificiale (argomento ormai all’ordine del giorno) è ovviamente differente da quella umana. L’intelligenza artificiale non ha abilità cognitive, non riesce ad adattarsi ad ogni contesto, non può in alcun modo apprendere ciò che non le è stato esplicitamente insegnato. La rivoluzione dell’IA però – a causa di esponenziali investimenti ad opera delle maggiori economie mondiali e grazie ai notevoli progressi della ricerca scientifica – è in corso. E il rischio di un aumento delle discriminazioni e di fenomeni come la standardizzazione del linguaggio è proprio dietro l’angolo. In che senso?
Molti Paesi, capaci economicamente di sostenere i costi di un’operazione così onerosa, hanno investito nella produzione di contenuti digitali per promuovere la loro lingua e la correlata diffusione. E le minoranze linguistiche non abbastanza provviste di capitale? Escluse dal progresso. Le varietà linguistiche e la valorizzazione del multilinguismo dovrebbero essere parte integrante dell’identità stessa di ogni Stato-nazione, non subordinate ad una globalizzazione standardizzante ove le peculiarità linguistiche sono declassate da un’anglofonizzazione penalizzante. La disuguaglianza relativa allo sviluppo tecnologico e alla crescita economica ad esso connessa è sempre più crescente, e uno dei fattori che la influenza notevolmente sono proprio i software di intelligenza artificiale.
Per non parlare, poi, delle diseguaglianze di genere connesse allo sviluppo tecnologico. Proprio a causa del funzionamento e dell’impostazione degli algoritmi stessi, infatti, risulta al momento ancora impossibile implementare l’IA senza che essa continui ad utilizzare dati pregressi fortemente patriarcali. La discriminazione algoritmica (Bartoletti) è infatti un noto tema connesso a quello dell’intelligenza artificiale. Un esempio concreto è quello di Amazon, che nel 2018 decide di automatizzare tutti i CV che riceve. Lo fa per alleggerire il lavoro dei recruiter, e per efficientare in generale il lavoro dell’azienda. Dei programmatori vengono assunti per disegnare il sistema e lo allenano con dei dati, essendo l’allenamento e l’implementazione tramite dataset necessaria per ogni sistema di intelligenza artificiale. Amazon utilizza i propri dataset, avendone già raccolti molti nei precedenti 20 anni di attività. Dopo 6 mesi, si rende conto che assunzioni e promozioni avvenivano unicamente in favore di uomini (al 90%). Fonti di diseguaglianza sono state trovate probabilmente anche nel modello, ma il tema grosso è stato quello dei dati. Dati vecchi di 20 anni sono infatti necessariamente posizionati in questa maniera, essendo stati numerosi i progressi in termini di emancipazione femminile e lotta al patriarcato negli ultimi anni. L’utilizzo di questi dati renderebbe (o sta già rendendo) superflui questi progressi.
Le lingue non sono un mero mezzo di comunicazione intercambiabile, identificano chi le parla e portano con loro una storia. Che, quindi, l’intelligenza artificiale debba essere uno strumento valorizzatore e non penalizzante è un dato assunto. Lo dicono anche le politiche europee, che designano il multilinguismo come una proprietà organizzativa delle istituzioni. Ma come concretizzare il principio? E perché avviene questo processo declassante a favore delle economie maggiori? Il primo quesito è più complesso e non vi è sicuramente un modus operandi ad hoc da seguire. Per la seconda questione è facile risalire alle motivazioni scatenanti del processo, invece.
Le lingue sono pervase di valore economico e, ovviamente, più vengono utilizzate più il loro valore economico cresce. Questo processo binario di input ed output porta a far sì che le politiche incentivino l’utilizzo di lingue che sono già molto parlate, disincentivando la protezione e la valorizzazione di quelle “minoranze” portatrici invece di storie e tradizioni ormai quasi scomparse. Si pensi, ad esempio, al greco di Calabria. Il problema è proprio a monte: non si tratta di beni o servizi scambiabili e valorizzabili, e l’obiettivo dovrebbe essere proprio quello di slegare la capitalizzazione economica dalle lingue stesse.
L’IA esercita un controllo molto elevato sulle lingue più parlate. Ne conosce i sintagmi, le regole grammaticali, le espressioni più utilizzate, il gergo e così andando avanti. Lo stesso, ovviamente, non vale per quelle minoritarie. E non potendo esercitare un controllo assoluto sulla tematica il potere va – come dice Focault – scomparendo. Utilizzare lingue minoritarie (o nel caso italiano, i cosiddetti “dialetti”) può essere visto come un metodo sovversivo per ribaltare l’assetto attuale e la considerazione delle lingue stesse. I locutori stessi delle lingue minoritarie non le utilizzano come mezzo di comunicazione, in quanto potrebbero benissimo vivere senza. Lo fanno per passione, per volontà di trasmissione storica o, per esteso, per attivismo politico.
Se a primo acchito può risultare un’ipotesi azzardata, si pensi alla storia stessa della lingua italiana. Prima di Dante l’utilizzo dell’italiano volgare come lingua ufficiale non era affatto comune, anzi. Potremmo in questi termini considerarlo il primo attivista della causa, un linguista non considerante le parole come mero mezzo per esprimersi ed esprimere. La lista è lunga se volessimo continuare con l’excursus storico, proprio a sottolineare quanto il concetto sia effettivamente veritiero e quanto l’IA stia ledendo questi principi, facendo regredire il panorama culturale mondiale e contribuendo al rafforzamento di un ambiente unico, senza più alcun confine. O meglio, rafforzando confini che dovrebbero essere abbattuti e abbattendone altri che dovrebbero essere preservati per il mantenimento dei rispettivi bagagli artistici.
L’altra faccia della medaglia potrebbe essere l’utilizzo stesso dell’IA per riportare in auge queste lingue, mantenendo allo stesso tempo il loro valore identitario e senza associarvi meccanicisticamente una funzione puramente utilitaristica. Questo dovrebbe essere lo scopo della clausola multilingue delle organizzazioni internazionali che, come già detto, rimane un principio spesso solo formale. I documenti ufficiali continuano ad essere prodotti sempre unicamente nelle stesse solite due o tre lingue, se non unicamente in inglese. È quasi come se ormai le lingue minoritarie fossero divenute ultra-minoritarie, e le lingue nazioni fossero tutte considerate minoritarie in favore dell’inglese. Uno scenario raccapricciante. Per ragioni prettamente politico-economiche, infatti, ci troviamo a comunicare spesso unicamente in inglese. Nessuno lo ha scelto, eppure la standardizzazione del linguaggio è avvenuta. E allora sì all’IA per concretizzare questo principio, ma fin tanto che le redini rimarranno sempre in mano alla politica non vi è alcuna certezza a riguardo.
Ma per quanto riguarda la linguistica, da dove derivano le discriminazioni algoritmiche? I dispositivi di traduzione automatica si basano prettamente sulle traduzioni ad opera delle organizzazioni internazionali. Altra problematica è connessa al fatto che i software utilizzano (appunto) dati già predisposti e raccolti precedentemente, e quindi non possono per forza di cose essere aggiornati in tempo reale. Un esempio? Google, che ha utilizzato i dati derivanti dal Corpus delle Nazioni Unite (ONU 2017: 120), o Facebook che ha utilizzato i documenti multilingue del Parlamento europeo per sviluppare i propri traduttori automatici. Torna appunto qui la problematica della standardizzazione del linguaggio che – oltre a penalizzare il valore culturale dello stesso – presenta una notevole quantità di discriminazioni di genere. Le due problematiche, quindi, risultano qui interconnesse.
Per convenzione, infatti, nei documenti ufficiali viene spesso utilizzato il maschile sovraesteso. Questo porta a degli errori di accordo del femminile e del maschile, specialmente per quanto riguarda le lingue romaniche, come succede sovente con Google Traduttore o con DeepL – fra l’altro i software più utilizzati dalle università italiane. Come risolvere il problema? Utilizzando dei corpus più vari e non necessariamente verificati e istituzionali, che sono più vicini e adattabili alla quotidianità. È fortemente necessario controllare l’operato delle macchine, controllandone il lavoro e rivedendo i testi che esse producono e sottolineando il più possibile nella stesura l’utilizzo di criteri linguistici non discriminatori e il più possibile inclusivi, così che l’IA sia in grado di apprendere al meglio meccanismi e funzionalità.
Principi etici, principi guida, valutazioni di conformità, protezione dei diritti d’autore…ma tutto questo basta? Sia in ambito linguistico che più generalmente, una buona normativa a livello europeo – e di seguito internazionale – è essenziale, ma senza formazione e consapevolezza non è abbastanza. Nel bel mezzo di una rivoluzione che supera di gran lunga tutte le precedenti, invischiati in un turbinio di cambiamento repentino, parlare di etica agli albori del processo è fondamentale.
Luciano Floridi, filosofo e professore ordinario di filosofia ed etica dell’informazione all’Università di Oxford e all’Università di Bologna, ha svolto un’importante analisi comparativa di diversi trattati trovando 4 principi fondamentali già alla base della bioetica, aggiungendovene un nuovo.
- Beneficienza: l’IA dovrebbe promuovere il benessere di tutte le creauture
- Non maleficenza: bisogna prevenire violazioni della privacy, mettere in guardia sulle minacce di una corsa agli armamenti basata sull’IA e evitare usi impropri generici.
- Autonomia: lo sviluppo dell’IA dovrebbe promuovere l’autonomia di tutti gli esseri umani. L’autonomia delle macchine deve essere invece limitata e sempre reversibile
- Esplicabilità: intelligibilità e responsabilità. È fondamentale rendere i sistemi accountable, ed esplicare come e quando vengono utilizzati e chi è responsabile del modo in cui funzionano a chiunque se lo chieda.
Una governance etica quindi, con apposite commissioni etiche da poter coinvolgere in caso di necessità, è fondamentale. Eppure, i progressi in quest’area sembrano al momento limitati. Quale sarà il punto di arrivo? Quanto le politiche riusciranno a veicolare adeguatamente senza subordinare nessun punto all’altro? Che il nostro essere pensanti sia tutelato e non schiacciato ed inghiottito da questa nuova realtà è una sfida che è tutta ancora da giocare e, purtroppo, noi siamo solo in platea.
Autore
Simona Marrone
Autrice
Sono una studentessa e giornalista pubblicista, da sempre appassionata di attivismo e critica sociale. Mi piace cimentarmi in tutto ciò che trovo stimolante ma, soprattutto, adoro scrivere!