L’intelligenza artificiale è un pericolo?

Carissimi lettori, è arrivato il momento di adempiere la promessa di ragionare sull’intelligenza artificiale, un sistema che ci fa risparmiare tempo e fatica, che può migliorare la produttività nel lavoro e nello studio, ma che certo  non è in grado di acquisire competenze e conoscenze al posto nostro. Così se ChatGPT, l’assistente che fa uso del linguaggio generativo per simulare conversazioni scritte e orali fra esseri umani, può rispondere a qualsiasi nostra richiesta, non è sicuramente idoneo a sviluppare la capacità propria del nostro cervello ad imparare.  Di conseguenza l’AI non rappresenta una panacea per tutti i problemi e il suo impiego indiscriminato può diventare anche un pericolo. Ciò vale soprattutto per le nuove generazioni che ne fanno un uso sempre più sfrenato. Studiosi, scienziati, giornalisti e politici si interrogano sulle conseguenze e i cambiamenti apportati dalle intelligenze artificiali sulla società. Persino il Papa intervenuto ad un consesso internazionale si è pronunciato al riguardo. Probabilmente anche voi che visitate ogni tanto queste pagine ne avete sentito parlare e magari  desiderate saperne di più. L’obiettivo di questo breve resoconto, quindi, è quello di fornire a tutti la possibilità di discuterne con cognizione di causa. Ritengo, pertanto, utile cominciare dai fondamenti,  cioè dal significato del termine e da chi l’ha coniato.

Con “AI (Artificial Intelligence)”, secondo l’espressione anglosassone più adoperata a livello planetario, si intende una disciplina  che ha come scopo quello di creare sistemi informatici, hardware e software, e macchine capaci di eseguire compiti che richiedono l’intelligenza umana. La parola è stata introdotta per la prima volta nel 1955 dall’eminente informatico statunitense John McCarthy. L’anno successivo Alan Turing, il matematico britannico decifratore delle macchine usate dalla marina tedesca durante la Seconda Guerra mondiale, fra le quali la famosa “Enigma”, pubblicò l’articolo intitolato “Computing machinery and intelligence”, in cui proponeva quello che sarebbe divenuto noto come “test di Turing”. Secondo questo test, una macchina poteva essere considerata “intelligente” se il suo comportamento, osservato da un essere umano, fosse giudicato indistinguibile da quello di una persona.  Sono trascorsi quasi settant’anni da allora ed enormi progressi sono stati compiuti dalla tecnologia soprattutto nel campo dell’informatica, della cibernetica, della robotica e delle neuroscienze. Ultimamente più che sulle svariate applicazioni dell’intelligenza artificiale ci si è soffermati sui pericoli che la sua diffusione ad una scala sempre più ampia può comportare per l’umanità. D’altronde è doveroso evidenziare che il rischio di utilizzare  l’AI in maniera inappropriata cresce quanto più le sue specifiche capacità sono superiori rispetto alle corrispondenti abilità dell’uomo. A questo riguardo possiamo distinguere tre tipi di AI: 1) l’Intelligenza artificiale stretta (ANI), con una gamma ristretta di abilità inferiori a quelle umane, 2) l’Intelligenza generale artificiale (AGI), alla pari con le capacità umane e 3) la Super intelligenza artificiale (ASI), più capace di un essere umano. È comprensibile, dunque, come le maggiori attenzioni degli studiosi si rivolgano soprattutto verso l’ASI e si discuta molto sull’impatto delle macchine super intelligenti sulla vita di tutti quanti: quali potrebbero essere le reali conseguenze? Prenderebbero il sopravvento sugli esseri umani o porterebbero realmente solo benefici? Prima di esprimere la mia  personale opinione e giungere a delle conclusioni, preferisco presentare il parere di due autorevoli personalità: il pensiero laico di un grande scienziato ateo, da una parte, le considerazioni umanistiche del massimo esponente dei credenti, dall’altra.

Stephen Hawking, scomparso, alcuni anni fa, sicuramente lo conoscete tutti. È uno dei geni più apprezzati dei nostri tempi.  Immobilizzato fin da giovane su una carrozzina, comunicava  grazie a una macchina intelligente, sviluppata dalla Intel e messa a punto con la Swiftkey che ha, senza dubbio, influenzato molti dei suoi studi anche sull’AI.  Durante il Web Summit di Lisbona nel novembre del 2017, l’astrofisico britannico mise in guardia l’umanità da un grosso pericolo futuro: l’intelligenza artificiale. Affermava che: <<Il successo nel creare l’AI efficace, potrebbe essere il più grande evento della storia della nostra civiltà. O il peggiore>>. Hawking si dimostrò spesso allarmato di come l’intelligenza artificiale possa addirittura sostituire gli esseri umani. Temeva che qualcuno fosse in grado di creare un’AI che continuasse a migliorarsi fino a essere superiore alle persone, una vera e propria nuova forma di vita. Diceva infatti: <<Temo che l’AI possa sostituire completamente gli esseri umani>>. 

Significative anche le preoccupazioni di Papa Francesco espresse recentemente, il 14 giugno 2024, al G7 in Puglia. Il pontefice mette in evidenza gli aspetti positivi e negativi dell’AI: << …l’intelligenza artificiale potrebbe permettere una democratizzazione dell’accesso al sapere, il progresso esponenziale della ricerca scientifica, la possibilità di delegare alle macchine i lavori usuranti; ma, al tempo stesso, essa potrebbe portare con sé una più grande ingiustizia fra nazioni avanzate e nazioni in via di sviluppo, fra ceti sociali dominanti e ceti sociali oppressi, mettendo così in pericolo la possibilità di una “cultura dell’incontro” a vantaggio di una “cultura dello scarto”>>. E  lancia poi un monito imprescindibile all’uomo per non lasciare alle macchine la facoltà di scegliere e decidere: conclude infatti con queste parole: << Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione….. Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine>>.

Davanti ad opinioni ed appelli così eminenti dovrei tacere ma preferisco fornire qualche ulteriore riflessione personale, senza dare però né un secco rifiuto, né un’adesione incondizionata all’uso delle “AI”. Io credo che se volessimo utilizzare le intelligenze artificiali dovremmo proporre una soluzione alla questione più impellente: la necessità di saperle gestire e controllare. Le macchine, i robot, i sistemi informatici sempre più avanzati ed efficienti, possono costituire un pericolo, ma considerando i grandi benefici che stanno offrendo all’umanità non possiamo certo farne a meno.  Prima di risolvere tale questione, bisogna rispondere chiaramente alla seguente domanda: quando le intelligenze artificiali diventano veramente una minaccia? Essenzialmente quando iniziano ad aver coscienza di sé, ad essere consapevoli della loro esistenza e delle possibilità di rendersi autonome e libere dal controllo umano. Situazioni di questo genere, per fortuna, non si sono ancora verificate,  ma le ritroviamo nei film e nella letteratura di fantascienza. Nel capolavoro di Stanley Kubrick del 1968 “2001: Odissea nello spazio”, tratto dall’omonimo libro di Arthur C. Clarke, per esempio, HAL 9000 è il supercomputer impazzito di bordo che tenta di sbarazzarsi dell’intero equipaggio della nave spaziale Discovery che intende disinserirlo. Nella recente pellicola “Moonfall” di Roland Emmerick del 2022, l’intelligenza artificiale è costituita invece da specie di mosche, scie di nanotecnologie nate dal nulla, che acquisisce una coscienza e decide all’improvviso tutta insieme che non sarà più una schiava al servizio dell’umanità. Si ribella e inizia ad ammazzare ogni forma di vita a partire dall’uomo. Le stesse nuvole invincibili composte da minuscole creature assassine le ritroviamo nel romanzo “L’invincibile” (1963) di Stanislaw Lem, lo scrittore reso famoso da “Solaris” il film tratto dal suo omonimo lavoro del 1964. Intelligenze artificiali differenti, talora sovvertitrici dell’ordine, le ritroviamo pure nel ciclo dei Robot (1950 – 1976) di Isaac Asimov, scienziato, scrittore e divulgatore scientifico. Gli androidi di Asimov sono robot positronici, umanoidi in grado di apprendere e di compiere scelte e azioni in modo autonomo e che uguagliano e superano in intelligenza gli umani. Lo stesso autore conia pure l’espressione “complesso di Frankenstein” per definire la paura dell’uomo che una macchina possa ribellarsi contro il proprio creatore e stabilisce anche “le tre leggi della robotica” per contrastare questo timore e costringere gli automi a garantire l’incolumità dell’essere umano. In sostanza: << un robot non può ferire un essere umano o, per inerzia, consentire a un essere umano di subire danni, deve ubbidire agli ordini impartitigli da un essere umano, a meno che tali ordini non siano in conflitto con la Prima Legge e, infine, deve proteggere la propria esistenza, a meno che ciò non sia in conflitto con la Prima o la Seconda Legge>>. Si tratta in pratica di regole di buon senso per programmare e educare i robot al rispetto dell’essere umano e nel contempo assicurare a loro stessi l’autoconservazione.  Perché non estendere dunque questi provvedimenti a tutti gli altri tipi d’intelligenza artificiale? Basterebbe adattarli alle diverse tipologie impostando dei software specifici. Sarebbe così risolto in maniera esauriente  il problema della gestione e del controllo sulle AI e quando una nuova generazione di intelligenza artificiale sempre più progredita prenderà coscienza di sé saremo pronti a governarla senza inconvenienti. In conclusione, in un mondo sempre più complesso, aperto ai cambiamenti, proiettato verso il futuro e alle sfide provenienti dall’esterno della Terra, le intelligenze artificiali costituiranno un sostegno e una difesa irrinunciabile. Come potremmo proteggerci da eventuali pericoli scaturiti dallo spazio: asteroidi, comete e pianeti fuori controllo senza il loro indispensabile aiuto? Stephen Hawking e altri eminenti studiosi, inoltre, sono concordi nell’affermare che all’umanità restano solo mille anni di vita sul nostro pianeta a causa di problemi come il riscaldamento globale, la sovrappopolazione, e lo sviluppo di potenziali pericoli di cui non siamo ancora a conoscenza come appunto gli asteroidi vaganti; l’unica speranza di sopravvivenza sembra risiedere altrove nell’universo. L’ausilio delle intelligenze artificiali sarà quindi indispensabile per trovare e raggiungere in breve tempo altri pianeti abitabili dove trasferire l’intera popolazione della Terra. Tuttavia, non intendo allarmarvi troppo: si tratta di una eventualità che solo alcuni cosmologi hanno paventato; ciò potrà accadere in un  lontano e imprecisato futuro, l’importante comunque è arrivarci preparati.

Spero che la lettura di queste righe sia risultata gradita, vi abbia soddisfatto e sollecitato a riflettere. Siete d’accordo o in disaccordo con le tesi qui espresse o volete aggiungere qualcosa?  Potete farlo mettendo un commento alla fine dell’articolo.

Ringrazio tutti per l’attenzione!

P.S. Non ho ancora deciso l’argomento del prossimo pezzo, ma vi prometto che sarà per tutti una sorpresa.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto