Può tanto ma non tutto. Anche l’intelligenza artificiale ha limiti

 
 

Tutti siamo consapevoli che ci troviamo di fronte ad una rivoluzione, la quarta rivoluzione:  dei nostri dispositivi elettronici, tra l’altro, dei quali ormai non ne possiamo fare a meno. I programmi, le app, i dispositivi attraverso cui lavoriamo e ci intratteniamo diventano sempre più intelligenti, ed è possibile delegare loro qualsiasi cosa. È davvero così?

Questo tema è stato oggetto di una serata pubblica dal titolo “Intelligenza artificiale: quello che non potrà mai fare” a Roma presso il Caffè Letterario di via Ostiense. L’evento è stato organizzato dalla Chiesa evangelica Breccia di Roma S. Paolo e Agape Italia. Esso ha visto il contributo di Robert Marks del Discovery Institute di Seattle e di Fabio Gasparetti, docente all’Università Roma Tre. La serata è stata utile anche per presentare il volume di Marks, Non-Computable You. What You Do that Artificial Intelligence Never Will, Seattle, Discovery Institute 2022 e il fascicolo “Intelligenza artificiale”, Studi di teologia N. 19 (2021).

Marks ha fatto una panoramica su come l’IA si è sviluppata nel corso del tempo. Ha spiegato alcuni concetti base su come funziona l’IA e ha sottolineato il fatto che l’IA è un raccoglitore di informazioni. Per Marks un dispositivo di Intelligenza artificiale non è un soggetto creativo e non lo sarà mai. Senza dati l’IA e le macchine intelligenti non possono vivere e nemmeno elaborarli. Pertanto, è possibile pensare all’IA come un ottimo strumento organizzativo, ma non come un sistema che oggi o domani potrà mai varcare la soglia della “coscienza” o scimmiottare l’intelligenza umana. Dalla sua prospettiva, in quanto evangelico, Marks ha chiaramente affermato che le macchine intelligenti sono tali perché sono un prodotto dell’intelligenza umana e niente può sostituire l’importanza e il ruolo di quest’ultima e che Dio stesso ha stabilito.

Gasparetti, pur focalizzandosi meno sui tecnicismi dell’IA, ha fatto riferimento all’influenza dell’IA nella formazione e nel campo dell’educazione. L’IA, nella sua veste più comune che è quella di Chat GPT, può avere un effetto negativo sugli studenti in quanto genera delle aspettative passive e delle dipendenze da sistemi esterni. La tendenza favorita da Chat GPT è di evitare contatti con i tutor in carne ed ossa, perché più rassicurante un tutor “artificiale” che non giudica e non stressa, come può fare una persona o un professore. Inoltre, a differenza delle persone, l’IA è sempre sveglia e concede più informazioni senza limitazioni senza lamentarsi od interloquire criticamente. Insomma, avere un assistente digitale aiuta veramente l’apprendimento e, soprattutto, la formazione degli studenti?

Dal dibattito seguito ai due interventi molte sono state le domande sull’utilizzo dell’IA. Ci sono rischi e opportunità nell’uso dell’IA. Se usata malamente, gli effetti possono essere considerevoli, sia per il lavoro, sia per l’educazione, sia per la socialità. In quanto creazione dell’umanità decaduta nel peccato, anche l’IA può essere impattata dalla deviazione del peccato in cui l’umanità è decaduto.

L’IA non può sostituire l’uomo nella sua umanità, nella sua rete di relazioni, nella sua maturazione formativa ed esperienziale. La macchina rimane tale: può variare, può essere perfezionata, può facilitare processi e cambiamenti, ma è soggetta al paradigma del “limite”. Essa non può andare oltre gli spazi ad essa imposti. Il punto, allora, non è tanto il ruolo dell’IA, ma la responsabilità umana che la crea e la usa.