Big Data, Machine Learning e Intelligenza Artificiale: nuove frontiere, stesse responsabilità

 
 

[Questo articolo è stato già pubblicato il 10 ottobre 2022. In occasione del periodo estivo, la redazione di Loci Communes ha scelto di ripubblicare articoli che ritiene rilevanti, alternandoli a nuovi. Buona lettura!]

“Big Data”, “Algoritmi”, “Machine Learning” e “Intelligenza Artificiale” sono termini da tempo entrati a fare parte della nostra quotidianità, tanto che sono trasversalmente citati nei programmi elettorali di tutti i principali schieramenti. Come spesso succede, quando siamo di fronte a nuove tecnologie, vi è un misto di  fiducia e grandi aspettative unito a timore e diffidenza. Ci si aspetta che l’intelligenza artificiale (IA) trovi una “soluzione geniale” ai problemi che non siamo stati capaci di risolvere con i nostri mezzi ordinari. Eppure temiamo che  l’IA sfugga al nostro controllo sia per il suo funzionamento, sia per il suo utilizzo per fini di controllo e speculazione. Quest’ambivalenza non infondata è stata lo spunto per fare emergere le questioni etiche implicite ed esplicite nell’uso di tecnologie tanto pervasive all’insegna della responsabilità individuale, aziendale, istituzionale e collettiva. 

Di questi temi si è parlato il 25 settembre a Formigine (MO) in una conferenza pubblica organizzata dall’Associazione Evangelica Formiginese e a cui hanno contribuito Sonia Bergamaschi, professore ordinario di Sistemi di Elaborazione dell’Informazione dell’Università di Modena e Reggio Emilia e Alessandro Piccirillo del Centro Studi Etica e Bioetica (IFED) di Padova. Al centro della conversazione è stato il fascicolo “Intelligenza artificiale”, Studi di teologia – Suppl. 19 (2021).

Quando parliamo di Intelligenza Artificiale parliamo di sistemi in grado di elaborare dati e informazioni riproducendo la capacità di apprendere dall'esperienza che caratterizza i processi di apprendimento umano. Il ventaglio di applicazioni è in costante espansione e le opportunità per utilizzare efficacemente l’IA per risolvere questioni complesse negli ambiti  della medicina e della pratica clinica, della gestione amministrativa, ambientale, industriale, per ottimizzare i flussi di controllo della  mobilità, per il contrasto dell’illegalità e per affrontare molti altri problemi emergenti. In particolare quei sistemi che si fondano sugli algoritmi di apprendimento automatico (Machine Learning e Deep Learning), poggiano la loro efficacia sulla gestione di un’enorme mole di dati (i “Big Data”). Il dato, tuttavia, è una rappresentazione della realtà creata dall’uomo attraverso scelte e interpretazioni che introducono pregiudizi ed errori non sempre trascurabili. Già a partire da questo si riconosce la necessità di un’indagine e una riflessione morale, con l’obiettivo di individuare i pericoli per gli esseri umani e recuperare la chiamata ad essere amministratori responsabili della realtà. 

L’IA, tramite la restituzione di rappresentazioni innovative basate su tecniche di apprendimento automatizzato, ci consente di avere uno sguardo e una gestione sulla nostra realtà che sono potenziate, ma non infallibili. Un perno centrale dell’esercizio di questa responsabilità etica riguarda gli algoritmi, sia per i criteri con cui sono programmati o applicati in modo generale e universalizzato a realtà differenti, sia  per la loro intrinseca mancanza di trasparenza, nonostante i sempre maggiori sforzi per renderli intellegibili. Se manca intelligibilità, l’analisi etica e l’indirizzo etico diventano molto più complicati. Se i dati di partenza non sono “puliti” o affidabili, le predizioni ottenute possono essere inefficaci se non addirittura discriminatorie, tanto da impattare negativamente gruppi di persone identificabili. Un sistema di tracciabilità delle evoluzioni degli algoritmi rende i processi di risoluzione dei problemi che emergono non solo desiderabile ma anche necessario, anche in termini di rendicontazione più generale. E questo è un punto che chiaramente risponde a criteri di responsabilità che un’etica di matrice evangelica è pronta a ribadire e sostenere. 

Un’etica evangelica sicuramente appoggia lo sforzo, riaffermato da linee guida internazionali e pronunciamenti istituzionali, a rendere la produzione e l’implementazione di algoritmi che siano esplicabili (intelligibili e tracciabili in termini di responsabilità). E’ riaffermata anche la responsabilità umana, che deriva dall’essere imago Dei amministratrice del Creato di Dio, quale altro pilastro nei risultati che l’utilizzo dell’IA produce. Una buona IA non soppianta l’uomo, anzi è strumento per l’umanità e non potrà essere considerata agente morale.

L’IA, come ogni altra tecnologia, non è moralmente neutrale. La sua invenzione come il suo utilizzo sono sempre il frutto di una specifica visione del mondo. Gli effetti della  caduta e del peccato si ripercuotono anche sulla tecnologia che non sarà mai capace di redimere né il creato, né l’umanità. All’uomo spetta il compito di riconquistare il Creato a una visione del mondo che sia integrata con il disegno originale e redento di Dio per esso. E’ incoraggiante osservare gli sforzi evangelici per entrare in queste conversazioni e portare un contributo che deriva dalla visione del mondo biblica.