Il documento

Vaticano: l’Intelligenza Artificiale non sostituisce l’uomo, attenzione ai rischi di “schiavitù”

Dalla Santa Sede la Nota sul rapporto tra intelligenza artificiale e intelligenza umana dei Dicasteri per la Dottrina della Fede e per la Cultura e l’Educazione

di Carlo Marroni

4' min read

4' min read

 

 

Loading...

 

E’ “solo” uno strumento, anche si grande potenza e potenzialità. L’Intelligenza Artificiale (AI), non va divinizzata, non deve sostituire le relazioni umane, ma deve essere utilizzata «solo come strumento complementare all’intelligenza umana». E’ al servizio dell’uomo, i ruoli non si possono mai invertire, anche se spesso è una deriva che si concretizza. Insomma, nessun essere umano deve diventarne schiavo. E’ la linea di Francesco, che da tempo ha messo l’AI al centro dell’attenzione della pastorale dei nostri tempi, e ora esce Antiqua et Nova (in riferimento alla “sapienza”, antica e nuova), la nota sul rapporto tra intelligenza artificiale e intelligenza umana frutto del lavoro congiunto tra Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione. Documento rivolto a genitori, insegnanti, preti, vescovi e quanti sono chiamati a educare e trasmettere la fede – scrive Vatican News - ma anche a coloro che condividono l’esigenza di uno sviluppo scientifico e tecnologico “al servizio della persona e del bene comune”.

 

Il rischio del potere in mano di pochi. Il nodo delle “fake news”

 

E come ogni prodotto dell’ingegno umano, anche l’IA può essere diretta verso «fini positivi o negativi», sottolinea Antiqua et Nova. Non nega che l’Intelligenza Artificiale possa introdurre «importanti innovazioni» in vari campi si rischia anche di aggravare situazioni di marginalizzazione, discriminazione, povertà, «divario digitale», disuguaglianze sociali. A sollevare «preoccupazioni etiche» è in particolare il fatto che «la maggior parte del potere sulle principali applicazioni dell’IA sia concentrato nelle mani di poche potenti aziende» così che questa tecnologia finisca ad essere manipolata per «guadagni personali o aziendali» o ad «orientare l’opinione pubblica verso l’interesse di un settore».

A proposito di fake news il documento rammenta il serio rischio che l’IA «generi contenuti manipolati e informazioni false» così da alimentare una “allucinazione” da IA, con contenuti non veritieri che sembrano reali. Ancora più preoccupante è quando tali contenuti fittizi sono usati intenzionalmente a fini di manipolazione. Ad esempio, quando si divulgano intenzionalmente immagini, video e audio deepfake (rappresentazioni modificate o generate da algoritmo) per «ingannare o danneggiare» . L’appello del Vaticano, e quindi del Papa, è quindi ad avere sempre «cura di controllare la veridicità» di quanto divulgato e a evitare, in ogni caso, «la condivisione di parole e immagini degradanti per l’essere umano”, escludendo “ciò che alimenta l’odio e l’intolleranza, svilisce la bellezza e l’intimità della sessualità umana, sfrutta i deboli e gli indifesi».

 

Guerra, nessuna macchina dovrebbe scegliere se togliere la vita

Le «capacità analitiche» dell’IA potrebbero essere impiegate per aiutare le nazioni a ricercare pace e sicurezza, ma «grave motivo di preoccupazione etica» sono i sistemi di armi autonome e letali, in grado di «identificare e colpire obiettivi senza intervento umano diretto». Il Papa ha invitato con urgenza a bandirne l’uso, come ha detto al G7 in Italia: «Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano». Le macchine in grado di uccidere con precisione in modo autonomo e altre capaci di distruzione di massa sono una minaccia vera e propria per «la sopravvivenza dell’umanità o di intere regioni». Queste tecnologie «danno alla guerra un potere distruttivo incontrollabile, che colpisce molti civili innocenti, senza risparmiare nemmeno i bambini», denuncia Antiqua et Nova. Per evitare che l’umanità precipiti in «spirali di autodistruzione», è necessario allora «assumere una posizione netta contro tutte le applicazioni della tecnologia che minacciano intrinsecamente la vita e la dignità della persona umana».

 

Il rischio di “dequalificazione” dei lavoratori

 

La stessa vigilanza per il mondo dei conflitti e delle notizie viene domandata in ambito economico-finanziario. In particolare nel campo del lavoro si rileva che se, da una parte, l’IA ha «potenzialità» per accrescere competenze e produttività o per creare nuovi posti di lavoro, dall’altra, può «dequalificare i lavoratori, sottoporli a una sorveglianza automatizzata e relegarli a funzioni rigide e ripetitive», al punto da «soffocare» ogni capacità innovativa. «Non si deve cercare di sostituire sempre più il lavoro umano con il progresso tecnologico: così facendo l’umanità danneggerebbe sé stessa», sottolinea la Nota. Ampio spazio viene dedicato al tema della sanità. Pur detenendo un enorme potenziale in svariate applicazioni in campo medico (ad esempio l’aiuto all’attività diagnostica), l’IA qualora andasse a sostituire la relazione medico-paziente lasciando l’interazione solo alle macchine, rischierebbe di «peggiorare quella solitudine che frequentemente accompagna la malattia».

 

 

Tornielli (Santa Sede): ingannevole attribuire all’AI caratteristiche umane

 

 

«Ad essere fuorviante è innanzitutto il nome – scrive Andrea Tornielli, direttore dei media vaticani in un editoriale a commento del documento - Quello della cosiddetta “Intelligenza artificiale” è uno di quei casi in cui il nome ha contato e conta molto nella comune percezione del fenomeno. La Nota “Antiqua et nova” ci ricorda innanzitutto che l’IA è uno strumento: esegue compiti, ma non pensa. Non è in grado di pensare. È dunque ingannevole attribuirle caratteristiche umane, perché si tratta di una “macchina” che rimane confinata nell’ambito logico-matematico. Non possiede cioè una comprensione semantica della realtà, né una capacità autenticamente intuitiva e creativa. Non è in grado di replicare il discernimento morale o un’apertura disinteressata a ciò che è vero, buono e bello, al di là di ogni utilità particolare. Insomma, le manca tutto ciò che è veramente e profondamente umano». Inoltre ricorda Tornielli, è importante – come dice la Nota – «che quanti prendono decisioni in base all’IA siano ritenuti responsabili per le scelte fatte, e che sia possibile rendere conto dell’uso di questo strumento in ogni fase del processo decisionale. Sia i fini che i mezzi utilizzati nelle applicazioni dell’IA devono essere valutati per assicurarsi che rispettino e promuovano la dignità umana e il bene comune: questa valutazione costituisce un criterio etico fondamentale per discernere la legittimità o meno dell’uso dell’intelligenza artificiale».

Copyright reserved ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti