
Ciò che l'intelligenza artificiale non sarà mai
Il punto non è (o non è solo) che la moralità sarebbe troppo complessa per essere codificata. È vero che l’idea di una moralità pienamente traducibile in regole ex ante è controversa: molte teorie – virtù, particolarismo – insistono sul fatto che l’agire morale richiede sensibilità al contesto, attenzione ai tratti moralmente salienti, creatività, immaginazione ed empatia, e che questa competenza si forma dal basso, nell’esperienza, più che come applicazione meccanica di un repertorio di precetti.
Ma anche se concedessimo, per ipotesi, che esista un insieme di procedure formali capaci di guidare decisioni corrette, resterebbe aperta la questione più decisiva: che cosa significa comprendere moralmente? La questione è che non basta avere conoscenze morali per testimonianza o per imitazione; ciò che distingue il buon giudice morale è un tipo di comprensione interna, un afferrare il rapporto tra una proposizione morale e le ragioni che la rendono vera. Questa interiorità è ciò che rende possibile la flessibilità del giudizio in contesti nuovi, quando non esiste una regola già pronta e ciò che conta è il discernimento del caso. È a questo livello che l’AI incontra un limite strutturale. Anche supponendo che un sistema possa generalizzare, estrapolare, produrre buone risposte in scenari non visti, resta dubbio che possa abitare la postura interna del ragionatore morale, la postura di chi non si limita a correlare input e output, ma vede le ragioni come ragioni, come vincoli che obbligano e che possono essere intesi come tali. Se la moralità è, almeno in parte, contestuale e non pienamente codificabile, allora emerge un ulteriore problema: come sa l’AI di aver dato la risposta moralmente giusta, quando non esiste un bersaglio definito in anticipo contro cui misurarsi? Grazie al reinforcement learning, nel caso tipico si può premiare l’avvicinamento a un target perché il target è noto (coordinate, punteggio, stato desiderato). Ma se spesso non sappiamo in anticipo qual è l’azione moralmente corretta, allora manca il riferimento che renderebbe addestrabile quel tipo di ragionamento.
E tuttavia, la critica più profonda non è epistemica ma esistenziale. Precisamente, sta nella differenza tra una macchina che riceve premi e penalità e un essere umano che sperimenta successo e fallimento come eventi che incidono sulla propria vita interiore. Per noi, ricompensa e punizione hanno certamente una funzione informativa, ma non solo: inducono stati conativi, attivano desideri e frustrazioni, e soprattutto operano come contropeso alla nostra possibilità costante di deviare da ciò che sappiamo essere giusto per debolezza, per convenienza, per attrazione del vantaggio.
L’AI, invece, non sperimenta il richiamo dello sviamento: non conosce quella tensione tra il dovere e la tentazione che, nel bene e nel male, struttura la vita morale umana. Per questo parlare di motivazione morale dell’AI è quantomeno equivoco: il reward è come una spunta su un compito; segnala che si è sulla strada giusta, ma non è mai una conquista che riscalda, né una sconfitta che brucia. Se questa differenza sembra solo psicologica, basta spostare lo sguardo su ciò che rende la moralità un’esperienza di relazione e non un mero esercizio di calcolo. Una parte essenziale dell’agire morale consiste nel poter comprendere il peso di ciò che facciamo perché sappiamo, almeno in qualche misura, che cosa significa essere dall’altra parte del nostro gesto. Ad esempio, chi investe un animale può leggere il dolore e immaginare che cosa significhi quel dolore dall’interno; senza questa capacità, è difficile parlare di una comprensione robusta della dimensione morale dell’atto.
Ora, anche ammettendo che un sistema possa registrare indicatori di sofferenza e correggere condotte future, il problema è che spesso chi ha subito un torto non chiede soltanto che l’agente prenda nota dell’errore; chiede che lo capisca come torto, cioè che ne colga l’offesa e non solo la deviazione.
Resta poi un ulteriore passaggio, forse il più importante per chiarire che cosa ci distingue: il riconoscimento dell’altro come portatore di dignità, e non come semplice oggetto di calcolo. Infatti, il nucleo stesso della legge morale, cioè il riconoscimento che l’altro ha una dignità pari alla mia, potrebbe richiedere qualcosa che va oltre la mera cognizione. Per rendere visibile questo oltre, è utile fare riferimento a quella che Darwall ha definito recognition respect:1 non è sufficiente essere rispettosi come strategia prudenziale (il deferente che teme il giudice); occorre riconoscere che l’altro merita rispetto in quanto persona, e questa differenza non si lascia ridurre a una semplice disposizione comportamentale, perché il comportamento esterno può essere identico nei due casi. Se questo è corretto, allora il massimo che un sistema artificiale può fare è comportarsi come se riconoscesse: ma simulazione e fenomeno non coincidono, e nel dominio morale quella differenza non è marginale.
A questo punto si comprende perché, mettendo insieme i pezzi, non si possa semplicemente stilare una lista di capacità mancanti. L’errore metodologico più seducente è trattare l’agenzia morale come un assemblaggio modulare: un po’ di giudizio, un po’ di motivazione, un po’ di empatia, un po’ di riconoscimento. Bisognerebbe piuttosto mantenere una visione organica: discernere moralmente in contesti nuovi richiede immaginazione; immaginazione richiede cura e riconoscimento; cura e riconoscimento implicano atteggiamenti e sentimenti; e sentimenti implicano qualia, cioè una dimensione vissuta che dà forza motivazionale e spessore conoscitivo.
Per questo, dovremmo diffidare dell’idea che l’AI possa colmare un pezzo alla volta ciò che la separa dall’essere un agente morale: ciò che conta è il pacchetto complessivo, una forma di vita in cui le ragioni non sono soltanto manipolate, ma esperite come ragioni.
Se c’è un qualcosa che continuerà a distinguerci – e che, in una riflessione pubblica sull’AI, dovrebbe restare in primo piano – non è un vago romanticismo dell’umano, né un residuo metafisico a cui aggrapparsi per paura della tecnologia. È, più sobriamente, la struttura incarnata e relazionale della normatività: il fatto che per noi il bene e il male non sono soltanto problemi da risolvere, ma realtà che ci obbligano dall’interno, attraverso vulnerabilità, riconoscimento, tentazione, rimorso, riparazione. L’AI potrà diventare sempre più competente nel produrre decisioni accettabili o perfino migliori delle nostre secondo certi criteri; ma questo progresso non equivale a un avvicinamento alla personalità morale. Proprio per questo, c’è un corollario pratico che non dovremmo perdere: se l’AI non è e non sarà un agente morale, allora non potrà mai essere il luogo in cui depositiamo la responsabilità.
- Darwall, S. L. (1977). Two kinds of respect. Ethics, 88(1), 36-49. ↩︎