I modelli di Intelligenza Artificiale Generativa, come ChatGPT, non vengono programmati riga per riga, come si fa con i software tradizionali. Imparano da soli analizzando grandi quantità di dati, testi e informazioni.
In pratica, non eseguono istruzioni precise scritte da un programmatore, ma si addestrano a riconoscere schemi e a generare risposte basandosi su ciò che hanno imparato. È un cambiamento importante: si passa da una logica “programmata” a una logica “addestrata”. Questo li rende straordinariamente potenti, ma anche difficili da decifrare.
Il risultato?
Sistemi che si comportano come vere e proprie “black box” (scatole nere) producono risposte, ma senza che sia chiaro come ci siano arrivati o perché abbiano scelto proprio quelle.
Con milioni – spesso miliardi – di parametri che interagiscono in modi opachi anche agli esperti, comprendere davvero cosa accade “dentro” questi modelli è una delle sfide più urgenti della tecnologia contemporanea.
Cos’è una “black box” riferita a un sistema di IA ?
Un sistema è considerato una scatola nera quando:
• le sue decisioni non sono spiegabili in modo comprensibile.
• il suo funzionamento interno non è accessibile o interpretabile da esseri umani,
• l’output non può essere ricondotto a regole chiare e trasparenti.
Perché dovremmo preoccuparcene?
• Fiducia e trasparenza: se non capiamo come funziona l’IA, è difficile fidarsi delle sue decisioni.
• Responsabilità: in settori delicati come medicina, giustizia o finanza, sapere chi o cosa ha preso una decisione è fondamentale.
• Bias e discriminazioni: se i modelli apprendono dai dati, rischiano di replicarne (o amplificarne) i pregiudizi. E senza trasparenza, accorgersene o correggerli diventa quasi impossibile.
Alcuni esempi concreti
• Colloqui di lavoro: un algoritmo seleziona i candidati, ma non è chiaro in base a quali criteri → rischio di esclusioni ingiustificate.
• Veicoli autonomi: in caso di incidente, può risultare impossibile ricostruire il processo decisionale del sistema.
• Credito bancario: un prestito viene rifiutato, ma il cliente non riceve spiegazioni comprensibili → mancanza di tutela e diritto di replica.
Verso un’Intelligenza Artificiale spiegabile (XAI)
Per affrontare il problema della black box, la ricerca sta sviluppando tecniche di Explainable AI (XAI), volte a rendere interpretabili anche i modelli più complessi.
Anche le istituzioni si stanno muovendo:
• AI Act (UE): impone requisiti di trasparenza per i sistemi ad alto rischio.
• GDPR: garantisce il diritto a ottenere spiegazioni significative per decisioni automatizzate.
• Linee guida etiche (OCSE, UNESCO): promuovono tracciabilità, auditabilità e responsabilità.
Conclusioni
La “black box” dell’IA generativa è uno degli ostacoli principali a un’adozione consapevole e responsabile dell’intelligenza artificiale.
Rendere questi sistemi più trasparenti non è solo un obiettivo tecnologico: è una priorità etica e sociale. Solo così potremo usare l’IA con maggiore sicurezza, equità e consapevolezza.
Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/