robot-che-esegue-un-lavoro-umano.jpeg

Moralizzare la tecnologia?

Il primato dell’etica sulla tecnica è non solo inutile, ma nocivo. Gli umanisti devono uscire dal ghetto dell’etica e della enunciazione di buone intenzioni e puntare più alla promozione del progresso dell’umanità.

di Maurizio Ferraris*
22 gennaio 2024
11 min di lettura
di Maurizio Ferraris*
22 gennaio 2024
11 min di lettura

L’intelligenza artificiale è ubiqua, e non sorprende; ciò che invece stupisce è l’ubiquità della richiesta di un’etica dell’intelligenza artificiale. Ciò è in una certa misura ovvio, perché non c’è azione umana, compresa l’interazione con le macchine, che non sia valutabile eticamente, ma lascia aperta la domanda: perché siamo così sensibili all’etica in associazione con l’intelligenza artificiale? Perché, di fronte a una macchina complessa, la prima (e spesso anche l’ultima e l’unica) esigenza umanistica consiste nell’appello all’etica?

Quando è iniziato tutto, vent’anni fa
La breve vita del Web è un compendio di queste tentazioni moralizzatrici, che subiscono modificazioni storiche mantenendo tuttavia una costante, quella della priorità dell’etica rispetto alla teoria e della critica rispetto alla affermatività e alla promozione di un progresso umano complessivo. Tentando una periodizzazione grossolana, all’inizio, pressappoco vent’anni fa, il problema etico delle nuove tecnologie consisteva nella tutela della privacy (le macchine ci spiano); poi è diventato una questione di giustizia sociale (le macchine non si limitano a spiarci, ma ci sfruttano come lavoratori sottopagati o gratuiti); infine, con una accelerazione legata all’avvento della intelligenza artificiale generativa (ChatGTP e simili) si è trasformato nell’ipotesi che l’intelligenza artificiale sia una forza incontrollabile che deve essere canalizzata, pena – per dirla in breve – la presa del potere da parte dei robot. Il filo conduttore che unisce queste fasi è che la risposta dell’intelligenza naturale allo sviluppo iperbolico della intelligenza artificiale è: più etica.
Si possono ben comprendere le ragioni di questa richiesta, ma non è affatto chiara l’equivalenza tra “umano” ed “etico”, giacché bisogna essere umani tanto per incarnare l’imperativo categorico quanto per compiere un genocidio. Nel primato dell’etica, e sotto le metamorfosi che può subire la tecnica, vale un principio: l’etica vale come un principio frenante e nemico, più che della tecnica in quanto tale, della innovazione tecnologica e dei suoi rischi. Nessuno, oggi, ritiene necessaria una riflessione filosofica o generalmente umanistica sul rapporto tra etica e automobili (o, più esattamente, la riflessione etica è tradotta in pratica dalle norme del codice della strada), ma i problemi veri sorgono con le auto a guida automatica, ossia nel momento in cui una tecnologia molto più avanzata del motore a scoppio apre il problema delle responsabilità della guida, che in precedenza erano univocamente ricondotte all’agente umano, cioè al guidatore. Ciò che tradizionalmente rientrava nell’ovvia sfera etica di un soggetto umano diviene un controverso campo di battaglia: chi è responsabile dell’eventuale malfunzionamento di un’auto a guida automatica? L’utente umano? La macchina (dunque non c’è vera responsabilità)? Il programmatore che ha scritto gli algoritmi che gestiscono la guida automatica? Il fiorire degli interrogativi non necessariamente avvicina alla soluzione dei problemi e anzi sembra allontanarla, disperdendola in un oceano di possibilità.

Un atteggiamento costante di fronte alla novità

Vale la pena di rilevare un punto: ciò che suscita timore e scatena la richiesta di etica come terapia contro l’ignoto o quantomeno contro il nuovo non è tanto l’apparato tecnico in sé, quanto la sua novità. Le preoccupazioni etiche che oggi si rivolgono all’intelligenza artificiale mezzo secolo fa investivano la televisione (che oggi appare come un apparato innocuo) e ai tempi di Platone colpiva la scrittura, che incominciava a essere insegnata nelle scuole elementari dell’Attica divenendo di dominio pubblico. Qual è la risposta di Platone ai timori suscitati dalla popolarizzazione della scrittura (e alla concorrenza che i libri possono portare a chi, come Platone, ha una scuola)? Etica, e nella fattispecie contrapposizione tra il logos buono e virtuoso scritto nell’anima e quello, esteriore, derelitto, tossico e ingannevole, scritto sul papiro o sulla pergamena. Ora, questo atteggiamento è una costante che si mantiene sotto la molteplicità delle forme che può assumere il rapporto fra umanesimo e nuove tecnologie.
Nel caso specifico dell’intelligenza artificiale, la contrapposizione è tra una intelligenza naturale considerata piena di ogni valore e virtù, perfetta in natura e corrotta dalla tecnica, e l’intelligenza artificiale, perversa e pervertitrice come la scrittura in Platone. Qui non ci vuol molto a vedere che l’immagine della intelligenza naturale è altamente idealizzata, presuppone un umano perfetto e omette la circostanza, sin troppo palese, per cui gli umani assomigliano molto poco alla loro immagine ideale, tanto è vero che il mondo è pieno di stupidi o di mascalzoni. Eppure, anche di fronte a questa evidenza di senso comune, la risposta non sta tanto in un appello alla moralizzazione o quantomeno alla educazione degli umani, bensì nella ricerca (più che nella effettiva imposizione) di vincoli etici alle macchine. Insomma, è la macchina che andrebbe moralizzata, contro ogni evidenza e fattibilità, giacché moralizzare ChatGTP non è di per sé una impresa più realizzabile o sensata che moralizzare i pugnali che hanno ucciso Cesare. L’etica si può certo installare all’interno di un algoritmo, ma ciò non lo trasforma in un agente morale, e non si può moralizzare l’intelligenza artificiale più di quanto si possa moralizzare un coltello. La punta arrotondata del coltello da tavola è l’incorporazione di princìpi etici in uno strumento, ma non comporta in alcun modo una moralizzazione del coltello in quanto tale. Ora, il progetto di un’etica dell’intelligenza artificiale forte è la trasformazione delle macchine in effettivi agenti etici, e come tale non può essere realizzato, perché le macchine sono, per l’appunto, meccanismi, e non organismi. E possedere un organismo è la condizione necessaria, anche se non sufficiente (gli animali non umani sono organismi ma non ha senso parlare di “etica dei castori” più di quanto sia lecito parlare di “etica dei telefonini”, intendendo con questo una presunta iniziativa morale da porre in capo alle macchine), per generare delle finalità e dei comportamenti etici.

Gli equivoci di fondo nella richiesta di etica

Ora, nella richiesta di etica per le macchine non si considera questa circostanza e si manifesta invece l’idea secondo cui la crescente complessità dei meccanismi sia tale da trasformarli in agenti morali, attuali o potenziali. In questa assunzione ci sono due equivoci di fondo.
Il primo è, per l’appunto, che si assume che una crescente complessità richieda un supplemento di etica. Ora, la complessità non cambia niente rispetto al fatto che anche il più sofisticato dei computer resta un automa, un meccanismo, dunque, come abbiamo detto, non può trasformarsi in agente etico, condizione riservata agli organismi umani in quanto organismi (come tali dotati di fini e di intenzionalità) sistematicamente connessi con meccanismi tecno-sociali che potenziano e strutturano l’intenzionalità (una osservazione, di passaggio: il solo ambito, negli anni recenti, in cui si è affermata la necessità di un’etica – nella fattispecie della comunicazione – per gli umani, in correlazione con le nuove tecnologie, è stata la diatriba sulla post-verità, dove la responsabilità dell’umano come mistificatore occupa il centro della riflessione. Vale tuttavia la pena di osservare che anche in questo caso l’etica di ultima istanza si applica non agli umani bensì alle macchine: le macchine ci hanno resi insensibili ai valori della verità – e probabilmente anche della bontà –, sicché l’intervento rispetto a un difetto umano passa necessariamente attraverso la moralizzazione della macchina, magari attraverso l’istituzione commissioni di fact checking). Il secondo equivoco che sta alla base dell’appello alla moralizzazione delle nuove tecnologie è l’idea (comune tanto ai filosofi quanto ai non filosofi) secondo cui il pensatore e l’umanista in genere sarebbero una sorta di cappellano militare paracadutato con una missione quasi esclusivamente moralizzatrice nel mondo della tecnica, un intellettuale situato nella società non per aggiungere sapere e competenze, che sono di pertinenza dei tecnici, bensì per portare esclusivamente la cautela e la morale. Il compito dell’umanista, in questo quadro, si precisa come quello di un intellettuale braghettone (come Daniele da Volterra che censura il Giudizio Universale di Michelangelo), chiamato a moralizzare la tecnica con un supplemento d’anima e con una attività non troppo velatamente conservatrice, perché dalla critica della tecnica alla critica del progresso il passo è breve, e possediamo – da Rousseau a Heidegger – una intera galleria di umanisti che, partiti dalla denuncia della dittatura della tecnica e dei suoi mali, sono approdati a una condanna del progresso come corruzione dell’umano. In questo quadro, l’etica sarebbe il sapere a basso costo e a minimo valore aggiunto che viene offerto dall’umanista agli altri umanisti. Un sapere alla portata di chiunque, perché non ci vuole niente per dire, per esempio, che occorre trovare dei valori alternativi rispetto al liberismo: le difficoltà hanno inizio quando si tratta di risolvere i problemi, non quando ci si limita a enunciarli.

 

L’esigenza morale si trasformi in promozione del progresso

Tento una conclusione. Il primato dell’etica sulla tecnica è non solo inutile, ma nocivo: non bisogna dimenticare che il tempo e la fatica necessari per la moralizzazione del Web e dell’intelligenza artificiale sono risorse e possibilità che vengono sottratte ad altri usi possibili, positivi e produttivi, delle nuove tecnologie. Perché il Web non necessariamente deve ridursi a uno spazio in cui le piattaforme e le tecnologie realizzano profitti mentre, per parte sua, la riflessione critica e l’umanesimo si ritirano nel ridotto di una scienza triste e querula. Questo esito non è affatto obbligato, e l’alternativa all’onnipresenza della domanda di etica non è affatto l’indifferentismo morale, bensì la promozione di azioni positive che travalichino il semplice orizzonte della critica per la formulazione di ipotesi in cui gli umanisti, uscendo dal ghetto dell’etica e della enunciazione di buone intenzioni, propongano delle azioni affermative, nelle quali l’etica sta sempre all’orizzonte (nessuno auspica un uso malevolo o anche solo eticamente indifferente delle nuove tecnologie), ma l’esigenza morale si trasforma in azione e in promozione del progresso dell’umanità e del raggiungimento di una maggiore giustizia sociale.

* Filosofo italiano, è professore ordinario di Filosofia teoretica all’Università di Torino. Qui ha fondato il LabOnt, un centro interdipartimentale sull’ontologia, di cui oggi è presidente.