Si può parlare di un’“Etica” dell’Intelligenza Artificiale (IA)? Un interrogativo che diviene di grande attualità in un periodo storico in cui si è osservato un grande sviluppo delle potenzialità e un’importante accelerazione nell’utilizzo delle IA all’interno delle nostre società anche quando, al momento, gran parte dell‘opinione pubblica ha una conoscenza paradossalmente superficiale di esse.
Una situazione che rischia di prestare il fianco tanto ad abusi e storture di questi strumenti volte alla manipolazione e al controllo quanto, evocando scenari sempre meno relegati alla fantascienza, ad un sovvertimento dei rapporti tra l’essere umano e la tecnologia stessa.
Nel corso degli ultimi quindici anni, all’interno del più ampio dibattito internazionale e della ricerca accademica e tecnologica sul tema, c’è chi ha cercato di trovare possibili risposte a dilemmi di questo tipo. Tra questi c’è Padre Paolo Benanti, teologo del Terzo ordine regolare di San Francesco, nonché saggista e docente presso la Pontificia Università Gregoriana di Roma e la Seattle University.
I suoi interessi e campi di ricerca, che lo hanno portato alla pubblicazione di oltre venti opere in Italia e all’estero, ruotano principalmente attorno all’Etica, alla Bioetica e all’Etica delle Tecnologie, con particolare attenzione al mondo dell’Intelligenza Artificiale.
La panoramica che vi presentiamo oggi è incentrata sulla figura di Padre Benanti e sul suo contributo intellettuale e accademico riguardo alle possibili soluzioni da adottare riguardo ad un utilizzo “etico” dell’Intelligenza Artificiale nelle nostre società.
Chi è Padre Paolo Benanti?

Padre Paolo Benanti nel 2016 (fonte immagine: Paolo Pergoraro/Wikimedia Commons, licenza d’uso CC BY-SA 4.0)
Nato a Roma il 20 luglio 1973, Paolo Benanti compie una scelta di vita quando nel 1999 sente la chiamata religiosa e lascia l’università per entrare nel convento francescano di Massa Martana, dove trascorre l’anno di prova e il noviziato.
Il percorso lo porta nel 2001 a vestire il saio e ad emettere la professione semplice (divenuta solenne sei anni dopo). Contemporaneamente, nel 2006 consegue il Baccalaureato in Teologia presso l’Istituto Teologico di Assisi e prosegue gli studi alla Pontificia Università Gregoriana dove consegue due anni dopo la Licenza in Teologia con specializzazione in Teologia Spirituale e – in seguito – il Dottorato in Teologia Morale nel 2012 con la dissertazione “The Cyborg. Corpo e corporeità nell’epoca del postumano”, vincitrice del Premio Bellarmino – Vedovato quale migliore dissertazione dottorale in etica pubblica e sociale.
Ordinato sacerdote nel 2009, Padre Benanti ha servito come primo Consigliere Generale dell’Ordine e Procuratore Generale per il sessennio 2013-2019. In seguito al dottorato, frequenta tra il 2013 e il 2014 il The Intensive Bioethics Course presso il Joseph P. and Rose F. Kennedy Institute of Ethics della Georgetown University di Washington D.C.
Nel 2019 la Santa Sede, durante il pontificato di Papa Francesco, lo nomina Consigliere della Penitenzieria Apostolica e – in seguito – Consultore del Pontificio Consiglio della Cultura.
Unico italiano all’interno del HLAB-AI (High Level Advisory Body on Artificial Intelligence) creato nell’ottobre dello scorso anno dalle Nazioni Unite, Padre Benanti è stato infine scelto dal governo Meloni per guidare la “Commissione sull’Intelligenza Artificiale per l’Informazione” (4 gennaio 2024), un ulteriore riconoscimento dopo aver già collaborato con il Ministero dello Sviluppo Economico nel 2018.
“La necessità di un’Algor-etica” – La posizione di Padre Benanti sull’Intelligenza Artificiale
In un articolo pubblicato nel 2021 su L’Osservatore Romano, nel riprendere un appello del Pontefice rivolto alle big tech, Padre Benanti rimarcava con fermezza e urgenza la necessità di porre “una questione etica” nell’ambito delle tecnologie derivate dalla IA, un cambio di direzione capace di porre la persona umana al centro delle attività delle macchine (“human-centered design”).
La possibile risposta a questo interrogativo veniva allora identificata dall’autore dell’articolo con l’intervento sulla c.d. “algor-etica”. Stando al neologismo coniato da Padre Benanti (e in seguito inserito tra le nuove parole dall’Accademia della Crusca), è necessario intervenire su ciò che “anima” i processi e le funzioni dei sistemi di IA, ovvero gli algoritmi, creando un nuovo linguaggio universale che tenga però conto dell’aspetto morale e valoriale, caratteristiche uniche dell’agire umano (“L’algoretica nasce se siamo in grado di trasformare in qualcosa di computabile il valore morale“).

Fonte immagine: geralt/Pixabay
Come ci stiamo rapportando oggi con l’Intelligenza Artificiale?
La riflessione di Padre Benanti risulta profondamente attuale a distanza di anni dalla sua pubblicazione.
Nell’attuale contesto globale infatti, nonostante gli importanti progressi nel campo della comprensione dei c.d. “Large Language Model” (LLM) – ovvero i modelli linguistici che permettono ai sistemi di IA di migliorare le proprie funzioni di apprendimento (o deep learning, come ad esempio il modello GPT-4 di OpenAI) – permangono ancora numerose “zone grigie” nello sviluppo e l’implementazione dei sistemi IA.
Si possono prendere in considerazione alcuni aspetti rilevanti a tal proposito, in primo luogo c’è un approccio profondamente differente sull’utilizzo delle IA tra i diversi paesi del mondo.
Se da una parte – nel nostro continente – il Parlamento Europeo ha approvato nel marzo di quest’anno il c.d. EU AI Act (che entrerà in vigore in modo effettivo nel 2026), ovvero la prima iniziativa legislativa al mondo in materia di Intelligenza Artificiale con cui cercare di disciplinare l’utilizzo delle IA all’interno di un comune perimetro normativo nella tutela e nel rispetto dei cittadini e della loro riservatezza (la legge europea sulla IA va ad intervenire e a rafforzare alcuni punti presenti nel General Data Protection Regulation europeo), nel resto del mondo questa “sensibilità” non è ugualmente diffusa.
La Repubblica Popolare Cinese, per esempio, porta avanti una strategia diametralmente opposta di sfruttamento dei sistemi di IA in chiave repressiva e di controllo della sua popolazione, come si osserva con “il sistema di credito sociale” alimentato attraverso il costante monitoraggio delle attività degli abitanti, l’onnipresenza di telecamere per il riconoscimento facciale e la raccolta di altri dati biometrici.
In secondo luogo, i fini per i quali le IA vengono impiegate nell’acquisizione di grandissime quantità di dati forniti – volenti o nolenti – dalla popolazione stessa non sempre sono leciti.
Infine, ultimo ma non per importanza, si osserva l’incredibile velocità con la quale la IA è riuscita a “migliorarsi” attraverso il deep learning, riuscendo a fornire risultati con un minore margine di errore e una verosimiglianza tale da poter rappresentare per certi aspetti un’allerta da non sottovalutare (es. l’utilizzo dei c.d. deepfake nella creazione di campagne e strategie di disinformazione e manipolazione dell’informazione, finanche della stessa opinione pubblica).
Uno scenario capace di colpire e travolgere indiscriminatamente tutti i settori delle nostre società in un futuro sempre meno lontano, almeno stando a quanto riportato e descritto dalle stime del World Economic Forum che nel suo rapporto del 2023 indicava come le IA dovrebbero portare all’eliminazione netta di 14 milioni di posti di lavoro entro il 2027.

Fonte immagine: AlanFrijns/Pixabay
Fonte immagine in copertina: geralt/Pixabay