SCIENZA, TECNOLOGIA ED ETICA
Scienza e tecnologia sono sempre state considerate promotrici di progresso e di benessere. Nel XIX secolo l’elettricità, le ferrovie e la diffusione dei pesticidi ci hanno permesso di trasformare la natura. Nel XX secolo il trasporto aereo, lo sviluppo farmacologico e le tecnologie dell’informazione hanno rafforzato la nostra fiducia nella ricerca tecnico-scientifica, anche se i rischi di un uso irrazionale si sono palesati a tutte dopo l’invenzione della bomba atomica. Nel XXI secolo l’intelligenza artificiale, l’editing genetico, le tecnologie immersive, i nanomateriali e l’energia rinnovabile sembrano prometterci ancora di più: salvare l’umanità dalla crisi eco-climatica. E se qualcosa può essere salvifico, perché dovremmo rinunciarvi? Più progresso quindi. Assieme alla fiducia, però, è cresciuto di pari passo un atteggiamento antiscientifico, di chi non crede che al progresso della tecnica corrisponda necessariamente un progresso per l’umanità. Mai come oggi l’etica è riconosciuta come un passaggio obbligatorio per legittimare il progresso tecnologico: basti sottolineare che nel recentissimo “AI Act”, promosso dall’Unione Europea per “eticizzare” l’intelligenza artificiale, la parola ‘fiducia’ compare 48 volte.
Ma è davvero possibile guidare la tecnica in una direzione etica? Ci sono diverse ragioni a favore di una posizione scettica. La prima è che bisogna trovare un accordo su quali sono i valori morali che vogliamo salvaguardare, e su come bilanciarli: cosa è moralmente permissibile e cosa no? Ad esempio, vogliamo regolamentare l’uso del linguaggio e dei contenuti sui social network, ma allo stesso tempo rispettare la libertà di espressione. Riconosciamo il potenziale dei robot anche se potrebbero danneggiare qualcuna (si pensi ai veicoli autonomi). Apprezziamo gli algoritmi quando velocizzano le procedure di selezione del personale, ci aiutano a fare scelte di acquisto migliori o supportano le giudici nello stabilire sentenze più eque, ma non vogliamo che ci isolino dentro bolle di filtraggio, illudendoci che tutte la pensino come noi. La seconda ragione è che la complessità delle nuove tecnologie rende sempre più difficile individuare le persone responsabili moralmente in caso di danni. Se un veicolo autonomo uccidesse un passante a causa di un malfunzionamento, e l’AI che ne governasse l’azione fosse il risultato dell’intervento di tante persone diverse, come dovremmo distribuire la responsabilità? La terza è che per regolare qualcosa bisogna conoscerne il funzionamento: il timore, però, è che le istituzioni politiche e i regolatori ne sapranno sempre meno delle aziende tech che dovrebbero regolare. Infine, come sostiene Severino, la tecnica ha già una sua etica: il suo scopo è aumentare all’infinito la propria potenza, servendosi dell’umanità per il suo progresso inarrestabile. Il ruolo del tecnico è potenziare la tecnologia, non chiedersi se il suo potenziamento sia moralmente buono.
Come impediamo allora che la tecnica diventi fine in sé, anziché mezzo? A chi spetta il compito di guidarla in una direzione sostenibile, assoggettandola ai principi liberali di uguaglianza e giustizia? Questa responsabilità spetta solo alla Politica: il suo scopo è definire cosa è buono e desiderabile per gli esseri umani, e organizzare il progresso tecnico-scientifico per realizzarne gli scopi. È la Politica che deve sussumere a sé la tecnica, non viceversa. Ma qui il problema si palesa: se è compito della politica guidare la tecnica, e se abbiamo ragioni per assumere una posizione scettica circa la sua capacità, dove sta la soluzione?
Forse dovremmo ripartire dall’idea che la Politica non si esaurisca nelle istituzioni, e che la nostra responsabilità non si riduca al voto elettorale, ma che tutto quello che facciamo e diciamo è intrinsecamente politico, perché ha a che fare con gli altri. Significa che siamo tutte coinvolte nel grande compito di orientare la tecnica, entro un sistema multilivello di responsabilità di tutti i soggetti che partecipano ai sistemi di produzione e consumo della tecnologia, secondo principi di prevenzione e precauzione. Abbiamo capito, ad esempio, che siamo responsabili delle informazioni che immettiamo negli algoritmi, perché gli output negativi ne sono la diretta conseguenza. I modi per esercitare questa responsabilità estesa, che sposta il centro del potere dalle istituzioni al noi tutte, restano ancora da definire. Una cosa però è certa: il futuro deve restare nelle nostre mani.