EXAGERE RIVISTA - Gennaio-Febbraio 2024, n. 1-2 anno IX - ISSN 2531-7334

Etica e spiegazione del processo decisionale. Opportunità e limiti dell’IA nell’ultimo libro di Luciano Floridi

di Gianfranco Brevetto

La vita come la conosciamo oggi è diventata inconcepibile senza la presenza di pratiche, prodotti, servizi e tecnologie digitali. Siamo, evidentemente, di fronte ad un nuovo capitolo della storia umana. Con questa decisa premessa, si apre il recentissimo volume di Luciano Floridi, Etica dell’intelligenza artificiale, edito dall’Editore Cortina.

Ci troviamo, ricorda Floridi, ad essere, tutto sommato, una generazione speciale, collocata in un momento altrettanto speciale, quello del passaggio dall’analogico al digitale, destinati a raccontare a figli e nipoti come era il mondo prima che tutto ciò accadesse, quello in cui tutto avveniva offline.

Siamo i primi ad affrontare questa nuova realtà e abbiamo compiti e responsabilità molto grandi: in primis quella di decidere se costruire bene o male questa progressiva e inesorabile digitalizzazione, prima che inizi a modellare noi e le generazioni future in modo sbagliato[1].

Per ben riuscire, sostiene Floridi, occorre comprendere le trasformazioni tecnologiche che sono sotto i nostri occhi, partendo dalla considerazione che, l’introduzione dell’intelligenza artificiale (IA), costituisce un divorzio tra intelligenza e capacità di agire. Ma con quali rischi e con quali prospettive?

Floridi è un maestro nell’unire complessità di analisi e divulgazione e, le premesse teoriche fatte al volume (gli approcci post-analitico-continentale, il forte legame tra pragmatismo e la filosofia della tecnologia, la filosofia come design concettuale), ci permettono di inquadrare meglio il suo pensiero Quest’inquadramento, inoltre, permette ai lettori, anche i meno addetti ai lavori, di poter sviluppare e approfondire il testo, senza tema di errori interpretativi.

Ci appare, così, chiaramente comprensibile il problema dell’etica al quale fa riferimento il titolo del volume, e che si sintetizza nella ricerca, comprensione, formazione, realizzazione e negoziazione di ciò che è moralmente giusto, sono il nucleo della riflessione filosofica. Tutto il resto è il viaggio necessario per raggiungere un luogo simile, ma non va confuso con esso.[2]

Una riflessione sempre più impellente se teniamo conto che, negli ultimi anni, si sono sempre più sviluppati gli algoritmi di apprendimento automatico.

Seguiamo Floridi nella sua mappa etica degli algoritmi per entrare nella questione.

Gli algoritmi, possono essere (1) usati per trasformare i dati in prove (informazioni) per un dato risultato che può essere usato (2) per innescare e motivare un’azione che può avere conseguenze etiche.

Queste due azioni possono essere effettuate da algoritmi (semi) autonomi, come quelli ad apprendimento automatico, di cui si diceva, e che vanno ad influenzare direttamente un terzo tipo di azione e cioè quello dell’attribuzione delle responsabilità degli effetti delle azioni che un algoritmo può innescare.[3]

L’autore identifica una serie di questioni epistemiche e normative. Tra  queste ultime emergono quelle ad impatto etico che si riferiscono ad azioni e decisioni guidate da algoritmi e, in particolare modo quelle relative alla mancanza di trasparenza (opacità) dei processi algoritmici , i risultati ingiusti e le conseguenze non volute.[4] E, considerata la difficoltà di determinare la catena di eventi e fattori che portano ad un determinato risultato, é evidente che la tracciabilità diventa  una questione etica aggiuntiva.

Una delle vicende classiche, nel campo della tracciabilità, è dovuta alla complessità tecnica e del dinamismo degli algoritmi automatici, ed è quella conosciuta come riciclaggio dell’agire, ovvero l’errore morale che consiste nel prendere le distanze da azioni moralmente sospette, indipendentemente dal fatto che tali azioni siano o no intenzionali, dando la colpa all’algoritmo[5].

L’Intelligenza artificiale, oltre che di entusiasmi, può essere portatrice anche di minacce. Non è sufficiente contrappore, a queste minacce, paure sconsiderate. Non solo sarebbe insufficiente ma anche inutile.

A questo proposito, Floridi propone, invece, una serie, molto articolata, di raccomandazioni. Di queste riportiamo quella relativa alla questione cui abbiamo prima accennato: occorre sviluppare un quadro per migliorare la spiegabilità dei sistemi di IA che assumono decisioni socialmente rilevanti. Quadro nel quale appare centrale la capacità degli individui di ottenere una spiegazione fattuale, diretta e chiara del processo decisionale[6].


Luciano Floridi

Etica dell’intelligenza artificiale

Sviluppi, opportunità, sfide

Raffaello Cortina Editore, 2022


[1] Luciano Floridi, Etica dell’intelligenza artificiale Sviluppi, opportunità, sfide, Raffaello Cortina Editore, 2022, pag. 12

[2] ibidem, pag.16

[3] ibidem, pag. 148

[4] ibidem, pag. 149

[5] ibidem, pag. 171

[6] Ibidem, pag. 289

Share this Post!
error: Content is protected !!