Menu
logo new2015 ok logo appStore logo googleStore

L’intelligenza artificiale ha un’etica? La prof.ssa Sesenna a Punto Incontro

ai sesenna

Un intervento focalizzato su tre grandi questioni tra loro interconnesse: che cos’è l’intelligenza artificiale? Come funziona? Si può parlare di etica dell’intelligenza artificiale? Questi gli interrogativi complessi a cui il 16 gennaio ha cercato di rispondere a Punto Inconto la prof.ssa Gabriella Sesenna.
“Riteniamo che il discernimento e la riflessione siano importanti per prendere coscienza di ciò che ci circonda, di fenomeni e problemi riguardanti convivenza umana, economia, politica, tecnologia - ha detto il dott. Riccardo Biella introducendo l’intervento di Sesenna - . Oggi parleremo di intelligenza artificiale allargando lo sguardo tra opportunità e rischi della dirompente rivoluzione tecnologica che si sta delineando e soffermandoci soprattutto sulle sue molteplici implicazioni etiche.
“Disciplina che attiene ai fini dei processi” - continua – solo l’etica è in grado di garantire che l’essere umano si collochi effettivamente al centro dell’innovazione tecnologica senza lasciarsene fagocitare. Ogni sviluppo tecnico che non porta ad un miglioramento della qualità della vita per l’intera umanità, ma al contrario rischia di aggravare disuguaglianze e conflitti non può infatti considerarsi vero progresso. Preparati dalla relatrice per il pubblico presente, alcuni documenti di esperti e della dottrina sociale della chiesa arricchiranno l’analisi sul tema”.
“Cos’è l’intelligenza artificiale? - si è chiesta quindi prima di tutto Gabriella Sesenna -. Si tratta di una materia fluida, di cui non si conoscono confini e spessore. A turbare è proprio la sua indefinitezza, che rende difficile racchiudere questa disciplina in un concetto univoco”.

La professoressa non rinuncia comunque a fornire una possibile definizione, comprensibile a tutti gli ascoltatori. “L’intelligenza artificiale si può considerare un enorme, infinita raccolta di dati effettuata con metodi informatici – ha detto -, e organizzata attraverso algoritmi: ovvero sequenze di operazioni che producono ‘decisioni’ e ‘istruzioni’. L’utilizzo del termine ‘intelligenza artificiale’ si deve ad Alan Turing, informatico che lo impiegò per la prima volta nel 1950 nel suo esperimento pionieristico e mai concluso di interlocuzione tra uomo e macchina”.
“Un attrezzo, una sconfinata biblioteca di Babele, un grande rastrello stupido, così alcuni studiosi definiscono oggi l’intelligenza artificiale – fa notare la relatrice - , sottolineando come il complicato processo di raccolta dati che la costituisce sia meramente quantitativo e del tutto privo di elaborazione consapevole. Depositati in un cloud (hardware remoto) i diversi dati utilizzati sono provenienti da wikipedia, dai giornali e da tutti gli altri mezzi di comunicazione, dalle nostre conversazioni tramite cellulari e investono gli ambiti più disparati della nostra vita. Una miriade di informazioni ricavate in gran parte gratuitamente e accessibili a chiunque lo voglia, basti pensare al funzionamento di ChatGPT: rispetto alle quali si pone però il serio problema dell’identità e della proprietà intellettuale”.
“Come funziona allora l’intelligenza artificiale? - osserva la studiosa -. Lavora generando contenuti simili a quelli umani su base statistica, probabilistica, stocastica: non cioè in relazione a criteri di senso tra parole, espressioni o legami sintattici, ma in rapporto ad una vastissima combinazione di elementi statistici che permette di formulare risposte con successo. A fronte di risposte immediate, occorre però interrogarsi sulla loro effettiva correttezza, attendibilità ed autenticità, mantenendo un atteggiamento di prudente vigilanza.
Sottolinea in modo chiaro quest’aspetto Vincenzo Ambriola, giornalista di Avvenire e autore di uno dei documenti raccolti e citati da Sesenna: “L’intelligenza artificiale ha messo in discussione il concetto stesso di documento”, generando contenuti a partire da dati di addestramento spesso sconosciuti”. E poi: “soprattutto quando sono usati per raccontare ciò che è accaduto in un luogo e in un tempo remoto, la certezza della loro autenticità viene meno. Nascono le fakenews, che stanno avvelenando le reti sociali, il web e i mezzi di comunicazione”.

“Lo stesso Platone – prosegue subito dopo la relatrice facendo stavolta riferimento al documento di Maurizio Ferraris – trovava pericoloso affidare le parole ad un testo scritto, proprio per la tutela della paternità e dell’interpretazione dei concetti espressi. Allo scritto il pensatore greco preferiva la ripetuta e laboriosa discussione collettiva, ‘praticata senza invidia’ e ritenuta la via maestra per giungere alla verità delle cose”.
Da qui alla differenza tra intelligenza artificiale e naturale il passo è stato breve. “Solo l’intelligenza naturale, in quanto dotata di un corpo (che Platone considerava la tomba dell’anima) – scrive ancora Ferraris - può effettivamente avere un’anima, ossia disporre di intenzioni, direzioni, paure, attese, volontà e sentimenti. Quello che Platone ritiene un limite è invece allora il motivo per cui l’intelligenza artificiale non può superare le diverse intelligenze naturali”.
A fronte di un’intelligenza artificiale intrinsecamente diversa da quella umana ma imperitura, capace di lasciar intravvedere affascinanti e inquietanti orizzonti avveniristici di superamento dei nostri limiti biologici – ha evidenziato la relatrice – già oggi possiamo renderci facilmente conto di come la tendenza alla categorizzazione dell’individuo sia uno dei rischi etici maggiori legati all’utilizzo di questa tecnologia. Disuguaglianze, pregiudizi, discriminazioni sono infatti il pericoloso prodotto di profili sociale, psicologici, economici e culturali riferiti a singole persone, ma tracciati esclusivamente in base ad una combinazione di dati statistici”.

Urge allora porsi l’interrogativo che fa da fil rouge all’intero intervento: l’intelligenza artificiale ha un’etica? Sesenna risponde citando Luciano Floridi, uno dei massimi esperti in merito. “L’intelligenza artificiale obbliga la società ad interrogarsi su cosa sia eticamente giusto” , è quindi la società stessa a dover decidere a quale etica improntare le operazioni algoritmiche”. Poi il ricordo del messaggio del Papa per la Giornata mondiale della Pace : “la scienza e la tecnologia – dice il Santo Padre – sono prodotti straordinari del pontenziale creativo umano”. Richiama però anche al “senso del limite”, che può essere rispettato solo con l’educazione al pensiero critico, soprattutto tra i giovani: sia nell’utilizzo delle nuove tecnologie sia per il superamento di dannosi e radicati pregiudizi verso gli altri.
L’incontro si conclude con il riferimento ad un’intervista di Padre Benanti, membro dell’Organo consultivo delle Nazioni Unite per il controllo dell’intelligenza artificiale. “Il dubbio, la misericordia e l’equità” sono per il sacerdote tre valori eticamente cruciali a cui improntare questa tecnologia, strutturata su esperienze passate. E alla domanda: “Dio che ruolo avrà”? Padre Benanti risponde che il problema non è il rapporto tra Dio e intelligenza artificiale: “il rischio è che si guardi al Cloud, dove risiede l’Ai, invece che al Cielo, e che si considerino le Ai delle nuove divinità”.

Micaela Ghisoni

Nella foto, da sinistra Riccardo Biella e Gabriella Sesenna.

Pubblicato il 22 gennaio 2024

Ascolta l'audio

"Il Nuovo Giornale" percepisce i contributi pubblici all’editoria.
"Il Nuovo Giornale", tramite la Fisc (Federazione Italiana Settimanali Cattolici), ha aderito allo IAP (Istituto dell’Autodisciplina Pubblicitaria) accettando il Codice di Autodisciplina della Comunicazione Commerciale.

Amministrazione trasparente