L’avanzamento tecnologico ha portato alla rapida evoluzione dell’intelligenza artificiale (IA), suscitando domande etiche fondamentali sul suo sviluppo e utilizzo. Una delle questioni centrali affrontate riguarda la possibilità di sviluppare un’intelligenza artificiale dotata di un senso etico intrinseco. Paolo Benanti, presidente della commissione AI per l’informazione della Presidenza del Consiglio, teologo e professore presso la Pontificia Università Gregoriana, ha espresso a Senato Tv un parere chiaro su questa questione. Secondo Benanti, l’IA non può essere intrinsecamente dotata di un senso etico in quanto non è una soggettività, ma piuttosto una macchina che risponde a criteri predefiniti.
“La risposta a questa domanda è un semplice no. Perché l’AI non è una soggettività, è una macchina che risponde ad alcuni criteri”, ha affermato Benanti. Ha continuato utilizzando una forte metafora: “L’etica, se mi consente questa metafora, è un grande libro che abbiamo scritto come umanità nel corso di tutte quelle situazioni nelle quali ci siamo trovati di fronte alla necessità di scegliere”. In altre parole, per il teologo, l’etica umana è il risultato di scelte fatte in libertà in risposta a diverse situazioni. Mentre l’umanità ha scritto il libro dell’etica nel corso del tempo, ora ci troviamo di fronte alla necessità di scrivere un nuovo capitolo riguardo alle macchine che possono automatizzare alcune decisioni. Tuttavia, è importante sottolineare che spetta all’umanità definire questi principi etici e non alle macchine stesse.
“Tecnicamente si tratta di mettere delle sorti di guard-rail alla macchina, facendo la metafora dell’automobile – ha aggiunto Benanti -. Il guard rail non ci impedisce di essere liberi e di utilizzare le strade, insieme al codice della strada cerca di minimizzare gli incidenti. Quello che dobbiamo fare è mettere in atto degli strumenti etici e anche giuridici per minimizzare quelli che possono essere gli incidenti”. In altre parole, Benanti propone di implementare strumenti etici e giuridici che fungano da guida per l’IA, simili ai guard-rail che guidano le automobili sulla strada, minimizzando così il rischio di incidenti etici. Il dibattito si estende anche alla sfera dell’informazione e dell’editoria. Secondo Benanti, l’IA può creare storie plausibili, ma gli esseri umani hanno la consapevolezza che la vita non si basa solo sugli istinti. Egli sottolinea che affidiamo le nostre competenze come esseri umani per comprendere il mondo e prendere decisioni informate, a differenza di alcune macchine che possono creare narrazioni convincenti senza necessariamente riflettere la realtà.
“Abbiamo delle nuove macchine che possono hackerare quella cosa più preziosa che abbiamo, e cioè la società civile”, ha dichiarato il teologo. Questa affermazione mette in luce la preoccupazione che l’IA, se utilizzata impropriamente o senza una guida etica, potrebbe minacciare la stabilità della società civile. In sostanza, il dibattito sull’etica nell’intelligenza artificiale rimane un argomento cruciale. La prospettiva di sviluppare un’IA con un senso etico intrinseco è scartata da Benanti, ma sottolinea l’importanza di stabilire principi etici e legali che guidino l’IA nel suo sviluppo e utilizzo. La sfida è trovare un equilibrio tra l’autonomia delle macchine e la necessità umana di definire i parametri etici che guidano il loro comportamento.