Intelligenze artificialiRicerca e Scienzafuturi

Intelligenza artificiale, la sfida tra adozione e uso responsabile

Negli ultimi quattro anni l’espressione intelligenza artificiale è tra le più utilizzate, e abusate, sia nelle comuni conversazioni quotidiane sia in articoli on e offline. Prima di entrare nel vivo cerchiamo di dare un po’ di contesto
A cura di Ernesto Amato
01 Apr 2026

L’espressione artificial intelligence è stata coniata nel 1956 da John McCarthy insieme ad altri padri fondatori di questo nuovo campo di ricerca informatica. Dato lo scarso potere computazionale degli anni ‘60 del secolo scorso, a fronte di tanta teoria (molti degli algoritmi alla base degli attuali modelli di intelligenza artificiale sono gli stessi di quegli anni) le applicazioni pratiche sono state molto limitate, dando inizio a quel periodo che oggi definiamo come primo inverno dell’AI. Una svolta fondamentale avvenne nel 1997, quando, per la prima volta, un modello di intelligenza artificiale rule-based, DeepBlue sviluppato dalla IBM, riuscì a battere al gioco degli scacchi l’allora campione mondiale Gary Kasparov. La notizia ebbe un’importante risonanza mediatica, ridestando l’interesse del pubblico e degli investitori nel campo dell’AI.

I modelli rule-based fondano il loro funzionamento su un insieme di regole che vengono applicate su un input in ingresso non definito. Prendendo l’esempio del gioco degli scacchi, sappiamo che le combinazioni possibili dei pezzi sulla scacchiera sono in numero così elevato che neppure un super-computer potrebbe prenderle tutte in considerazione. Fornendo però le regole del gioco, il valore dei pezzi, le analisi delle più famose aperture e chiusure, nonché di alcune strategie del medio gioco, è possibile indicare al modello di intelligenza artificiale di valutare la probabilità che la sua prossima mossa sia la migliore per arrivare alla vittoria. In questo caso, quindi, gli algoritmi definiscono le regole del gioco e il modello di calcolo della probabilità della migliore risposta possibile. Sicuramente un approccio interessante, ma che non prende in considerazione tutti questi casi in cui non esistono regole del gioco chiare e definite.

Il 2010 segnò un’altra pietra miliare nella storia dell’AI. ImageNet, un database di 14 milioni di immagini manualmente etichettate e descritte, venne reso disponibile a chiunque volesse eseguire il training di un modello di intelligenza artificiale per il riconoscimento automatico delle immagini. Grazie a questo enorme database, nel 2012, l’algoritmo AlexNet riuscì a riconoscere i contenuti delle immagini con un errore di solo il 15,3%. Fu il successo del machine learning e della sua versione più complessa, il deep learning.

La principale differenza con i modelli rule-based è nella mancanza della descrizione delle regole in fase di programmazione del modello. Nei modelli di machine learning viene fornita un’enorme mole di dati e si chiede agli algoritmi sottostanti di trovare le interconnessioni tra i dati stessi, ossia di crearsi quelle regole per cui il modello sarà in grado di distinguere nella foto un essere umano da un cavallo o da un albero. Con una sola controindicazione: i parametri presi in considerazione da questi modelli per crearsi le proprie regole sono nell’ordine dei miliardi e questo crea un problema di impossibilità di capire esattamente quali di questi vengano davvero utilizzati quando i modelli forniscono le risposte alle nostre domande e con che criterio ciò accada.

E arriviamo al 30 novembre del 2022 quando OpenAI rilasciò al pubblico Chat-GPT, il modello di Generative Artificial Intelligence (GenAI) diventato punto di riferimento per il settore nonché attuale controparte delle conversazioni di molti possessori di un cellulare. I modelli di Generative AI non fanno altro che utilizzare gli stessi algoritmi del machine learning e del deep learning per generare contenuti originali.

Molti di noi, parlando di AI, fanno riferimento agli strumenti basati sui modelli generativi piuttosto che a tutto l’ecosistema dell’intelligenza artificiale, che – per essere chiari – è tra noi dalla fine degli anni novanta del secolo scorso, anche se in maniera completamente trasparente per l’utente finale. I modelli generativi hanno portato all’interazione diretta con strumenti e applicazioni AI-based, in una maniera che ha letteralmente sconvolto il modo di percepire l’intelligenza artificiale per l’utenza comune.

Fatta questa importante premessa per comprendere il contesto in cui si pone la generative AI, oggi siamo già molto più avanti rispetto al 2022. Sentiamo parlare di agenti AI e di syntethic person, di digital tween e personal intelligence e sorgono spontanee alcune domande: chi è responsabile dei contenuti generati dai questi nuovi strumenti? Chi assicura che saranno utilizzati in modo etico? Chi verificherà l’uso responsabile nelle aziende? Quali impatti a livello personale avranno questi strumenti?

Come cittadino europeo non vi nascondo di essere fiero di quanto si stia facendo in merito alla salvaguardia dei dati personali e ai diritti su di essi. A partire dal GDPR (General Data Protection Regulation) entrato in vigore nel 2018, ogni cittadino e cittadina ha il diritto di scegliere come i propri dati personali possano essere utilizzati dalle aziende e dagli enti europei ed extra-europei. Nello stesso modo, lo European Artificial Intelligence Act del 2025 detta alcune regole che definiscono gli usi leciti e illeciti dei sistemi AI.

Tre sono le componenti principali dello EU AI Act: definizione dei livelli di rischio delle soluzioni basate su AI e richiesta di mappatura delle soluzioni stesse, introduzione di un modello di governance delle soluzioni basate su AI, formazione di base per tutte le persone sui modelli AI.

La prima componente definisce i livelli di rischio dei modelli di intelligenza artificiale in base alla tipologia di attività per cui vengono utilizzati. Si va dal rischio basso, a quello inaccettabile, ossia quelle attività per cui, indipendentemente dal beneficio, non possono essere implementati sistemi AI-based. Tra i rischi inaccettabili abbiamo, ad esempio, l’utilizzo di tecniche subliminali, manipolative o ingannevoli e che approfittino di vulnerabilità quali l’età o una disabilità al fine di alterare indebitamente le scelte e i comportamenti degli individui; il social scoring per la categorizzazione degli individui; l’utilizzo del riconoscimento biometrico a uso improprio, etc.

La formazione di base è un altro strumento fondamentale per poter affrontare un’adozione consapevole dei sistemi basati su intelligenza artificiale. Sia a livello aziendale che a livello sociale è importante allineare la conoscenza e la consapevolezza in merito all’AI. In modo che si possano prendere decisioni basate sulla realtà dei fatti e non sulla spinta di natura prettamente commerciale. Infine, per tutte le aziende – e dovrebbe essere così anche per i privati cittadini e cittadine, nonché per i governi e le istituzioni pubbliche – si rende necessario un approccio preventivo di attenzione e validazione di come sono utilizzate le soluzioni basate sull’intelligenza artificiale, sia generativa sia tradizionale. In questo contesto, l’introduzione di framework di AI Governance è la base su cui costruire un ecosistema etico e responsabile per l’utilizzo dei modelli AI.

Uno dei principi cardine di qualsiasi framework di AI Governance dovrebbe essere lo Human in the Loop, detto in inglese. Ossia mantenere sempre la partecipazione di un essere umano nelle fasi decisionali, almeno in quelle più importanti. Capisco come questa possa essere considerata una pratica che rallenti l’adozione dei modelli AI all’interno delle nostre aziende e, più in generale, della nostra vita. Ma è anche l’unico modo per affrontare una tecnologia di cui non conosciamo bene il funzionamento (sì, in effetti anche se li abbiamo programmati noi, il cuore di un modello AI generativo si presenta come una scatola nera di cui non conosciamo il reale contenuto) e che risulta essere, in molti casi, molto più brava di noi nell’esprimersi in maniera appropriata anche quando sta fornendo informazioni non completamente vere o addirittura false.

Mantenere il controllo umano di questi sistemi è il miglior modo per riuscire ad adottarli, in sicurezza, con un approccio etico e volto a un uso responsabile.

Registrazione Tribunale di Bergamo n° 04 del 09 Aprile 2018, sede legale via XXIV maggio 8, 24128 BG, P.IVA 03930140169. Impaginazione e stampa a cura di Sestante Editore Srl. Copyright: tutto il materiale sottoscritto dalla redazione e dai nostri collaboratori è disponibile sotto la licenza Creative Commons Attribuzione/Non commerciale/Condividi allo stesso modo 3.0/. Può essere riprodotto a patto di citare DIVERCITY magazine, di condividerlo con la stessa licenza e di non usarlo per fini commerciali.
magnifiercrosschevron-down