L’abilità di certi computer di simulare e svolgere compiti tipici della mente umana, in autonomia, ed anche in modo differenziato rispetto alla variabilità dei contesti dati, è chiamata “Intelligenza Artificiale”, oppure utilizzando il solito inglesismo definitorio “Artificial Intelligence” (A.I.). Alla base sta la possibilità che talune macchine possano in un certo senso riprodurre il pensiero umano (non a caso si parla di software strutturato attraverso “reti neurali”) ed eseguire i compiti assegnati, magari riuscendo ad apprendere nel corso della loro operatività (machine learning). L’Intelligenza Artificiale è e sarà sempre più presente nelle nostre vite, ad esempio attraverso la “domotizzazione” molto più spinta nelle nostre abitazioni, dove mediante l’ “Internet delle cose” i diversi elettrodomestici potranno dialogare tra loro; oppure incorporata in certe applicazioni del nostro ormai inseparabile Smartphone, per non parlare del piuttosto noto “Chat GPT”, il nuovo strumento di OpenAI studiato per interazioni con l’Intelligenza Artificiale di tipo conversazionale. Queste dinamiche possono presentare dei rischi con riferimento alla sicurezza, alle imprese, all’occupazione e alla democrazia, giacché non sono sempre tutte “rose e fiori”: si tratta infatti di sfide enormi che investono tematiche molto vaste ed impattanti come, la privacy, l’attendibilità delle informazioni e la possibilità della loro manipolazione, la distinzione tra soggetti reali ed elementi invece creati dall’A.I., ecc. Quindi parliamo di questioni di natura antropologica, educativa, sociale e politica, con l’incognita forse più grande che è quella che riguarda l’impatto probabilmente importante dell’A.I. sul mondo del lavoro, dove una significativa contrazione dei livelli occupazionali sarà sicuramente possibile. Rispetto a questa evenienza però a nulla servono atteggiamenti “neo-luddisti”, semmai è fondamentale la necessità di governare i processi e la condivisione generalizzata degli stessi. Nonostante magari ne verranno creati altri e migliori, l’uso dell’Intelligenza Artificiale potrebbe come si diceva comportare la scomparsa di molti posti di lavoro, e non necessariamente tra quelli di “bassa manovalanza”, ma con riferimento anche alle professioni più qualificate come quelle degli avvocati, notai, giornalisti, commercialisti e persino programmatori, infatti ci sono già software che sono in grado di programmare altro software.
È cruciale quindi che sia prevista un’adeguata formazione affinché i disoccupati possano riqualificarsi ed inoltre perché vi sia una forza lavoro che permanga adeguata per lungo termine. Non saranno quindi certamente trascurabili le conseguenze di questi sommovimenti sociali, le quali potranno determinare la scomparsa della “classe media” come conseguenza del fallimento di politiche redistributive della ricchezza. In sostanza – applicando anche a questo contesto il paradigma Paretiano – ci saranno poche persone che si arricchiranno moltissimo, e sempre più compagini sociali che si impoveriranno, spesso rischiando di finire proprio ai margini della società. Forse una soluzione potrebbe consistere nella riduzione del tempo di lavoro a parità di salario, ed anche quella che le aziende condividano con tutti i lavoratori i benefici economici determinati dall’aumento della produttività ottenuto grazie all’Intelligenza Artificiale. Gli output prodotti dall’A.I. sono da relazionare a come essa viene programmata e da quali dati vengono immessi, mentre gli utenti del web producono in ogni istante quantità inimmaginabili di dati cosicché Internet è diventato un enorme magazzino digitale con informazioni relative ad ogni individuo; indicazioni che vengono impiegate per scopi di varia natura, quasi sempre correlati alla profilazione del consumatore, e secondo modalità più o meno trasparenti. Il problema è che questo processo può essere influenzato intenzionalmente e ad esempio, alcuni aspetti importanti potrebbero non essere inseriti volutamente nell’algoritmo, oppure potrebbero essere programmati per riflettere delle distorsioni argomentative. La “rivoluzione digitale” ha consegnato nelle mani dei signori dei “big data”, in pratica a poche imprese multinazionali uno strapotere così penetrante da mettere in discussione l’autorictas pubblica; è più che mai necessario un bilanciamento delle forze in gioco, promuovendo un “empowerment” sociale, che sposti il baricentro dal privato verso la legittimazione delle azioni riequilibranti dei pubblici poteri.
Papa Francesco ha affrontato la tematica con un messaggio in occasione della 57a “Giornata Mondiale della Pace”, che si è celebrata il 1° gennaio 2024, correlando l’Intelligenza Artificiale e appunto la Pace; soffermandosi sulle ricadute etiche, e cercando di capire quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali. E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla Pace. L’etica torna come un faro indicatore poiché la dignità di ogni persona è legata alle altre nell’unica famiglia umana ed è antecedente a qualsiasi tecnologia; anzi deve servire a valutare il progresso digitale in modo che lo stesso sia orientato verso la giustizia sociale ed intorno alla causa della Pace. Non è quindi accettabile – secondo Papa Francesco – un progresso cieco ed esclusivamente guidato dal profitto o dalla ragione di Stato, mentre il Suo auspicio è che l’ A.I. non accresca le disuguaglianze e semmai contribuisca a porre fine ai tanti conflitti attivi. L’assenza di regole condivise reca il pericolo di cadere “nella spirale di una dittatura tecnologica”, in cui l’A.I. amplifica le disuguaglianze e consente di accentrare nelle mani di pochi la conoscenza e la ricchezza, con la conseguenza di minare la democrazia e la coesistenza pacifica. Gli algoritmi non sono neutri, argomenta il Pontefice, chiedendo di agire in maniera preventiva, proponendo modelli di regolamentazione etica (algor-etica). L’appello è per la Comunità Internazionale che è chiamata a produrre un trattato vincolante, che regoli lo sviluppo e l’uso dell’Intelligenza Artificiale nelle sue molteplici forme. Nella temperie dell’ on line permanente è diffuso il mito della trasparenza assoluta e del consenso informato; tuttavia l’utente può essere inconsapevolmente guidato nelle scelte, giacché viene creata a priori la gerarchia delle notizie, immergendo il cyber navigatore in un ambiente preconfezionato, dove le sue azioni susseguenti sono in un certo senso prevedibili, così come è incoraggiata la creazione di un’umanità standardizzata e controllabile a piacimento. Non a caso si parla infatti di “algocrazia”. La monetizzazione nella rete della privacy mediante lo scambio con l’utilizzazione dei propri dati da parte di terzi, espone l’utente al rischio di perdere in sostanza la propria libertà, poiché “se il servizio è gratis, vuole dire che il prodotto sei tu”.
Il nocciolo della questione per evitare l’eventualità di ritrovarsi addosso effetti non desiderati, imprevisti e/o negativi, è quale potrebbe essere il “valore d’uso” (cioè la sua utilità) da conferire alla prorompente presenza della A.I., e a questo punto il tema diventa essenzialmente politico. Va infatti costruita una governance che non sarà sicuramente neutra, mentre tale valore d’uso va appunto definito e misurato. Facile a dirsi ma intorno a quali criteri? La responsabilità è tutta dell’uomo e ruota intorno alla sua visione della società del futuro, in questo senso si tratta di una scelta politica, la questione è dare un fine eticamente condivisibile di progresso ad un mezzo tecnologico, misurando quale tipo di impatto avrà l’Intelligenza Artificiale magari sulla felicità collettiva, sulla libertà delle persone, sulla democrazia, sostenibilità, disuguaglianze. Diverso è prendere in considerazione altri fattori come il numero delle connessioni, l’aumento del PIL, il benessere economico individuale, ecc., ed in questa direzione si misura lo scarto di scelte che per loro natura non potranno essere imparziali. In definitiva il paradigma tecnocratico che vuole ridurre sostanzialmente l’uomo ad un “insieme di dati” ci pone davanti all’inquietante interrogativo che la “posta in gioco sia proprio appunto l’umanità”.
Andrea Rinaldo
4 commenti
Vai al modulo dei commenti
Grazie Vittorio per il tuo commento.
Il rispetto dei principi costituzionali è necessario anche con riferimento alla A.I.
Lo Stato Italiano deve muoversi in tempo utile e adottare leggi che impediscano alla I.A. di violare i principi scritti nella nostra Costituzione a difesa della persona.
Grazie Gabriele per il tuo commento. Il prof. Floridi ha tenuto una interessante relazione presso il nostro circolo nel 2021, parlando della “Quarta rivoluzione”, ovvero sul riferimento all’impatto delle tecnologie digitali sulla nostra società. La trovi nel nostro sito.
Noi non crediamo all’efficacia del “populismo corporate” ma sulle possibilità di “sortirne insieme mediante la politica”, quando la governance diventa il frutto di scelte collettive condivise e ben ponderate. Colmare il divario comunicativo tra apparato legislativo e cittadini ci pare una sfida nella quale è utile cimentarsi, e soprattutto utilizzare l’intelligenza artificiale anche per mappare le enormi disuguaglianze esistenti e quindi trovare soluzioni adeguate.
Continua a seguirci on line e (meglio) in presenza nei prossimi incontri.
Il Prof. Luciano Floridi ha ben descritto la necessità di dare delle regole alla governance nella formula del “populismo corporate”. Immaginando la democrazia come il sistema in cui è il “popolo” a controllare la “governance”, e il populismo come il sistema in cui l’asserita uguaglianza tra “popolo” e “governance” scarica sul popolo le scelte e gli errori della governance, impedendo al popolo stesso di operare il cambio democratico necessario (in altre parole, di “mandare a casa” il governo di turno per proprie responsabilità), ecco che il “populismo corporate” si verifica quando è la “governance” a definire, plasmare e controllare le scelte del “popolo” (di fatto ingabbiandolo in maglie tanto strette, anche se spesso invisibili, da immobilizzarlo in un immutabile status quo).
Qui la riflessione personale, anche se non solo del sottoscritto: che lo status quo sia imbalsamato è evidente dal solo fatto che le “nuove tecnologie” sono tra noi ormai da almeno trent’anni, con ben poche iniziative prese per governarle appieno, se non a livello europeo. Compito del Terzo settore quello di alfabetizzare al digitale (come in quest’occasione); di colmare il divario comunicativo tra il legislatore comunitario e il “popolo” (ruolo non più svolto dai partiti); di alimentare spazi di disubbidienza digitale rispetto al populismo e al “populismo corporate”. Compito non facile, ma nessuno dei compiti del Terzo settore lo è. Punto di partenza: sviluppare intelligenza artificiale (o, meglio, agenti autonomi) dal basso, per mappare le disuguaglianze e “chiederne conto”.