Giornale on-line fondato nel 2004

Sabato, 02 Mag 2026

I modelli di Intelligenza Artificiale Generativa, come ChatGPT, non vengono programmati riga per riga, come si fa con i software tradizionali. Imparano da soli analizzando grandi quantità di dati, testi e informazioni.

In pratica, non eseguono istruzioni precise scritte da un programmatore, ma si addestrano a riconoscere schemi e a generare risposte basandosi su ciò che hanno imparato. È un cambiamento importante: si passa da una logica “programmata” a una logica “addestrata”. Questo li rende straordinariamente potenti, ma anche difficili da decifrare.

Il risultato?

Sistemi che si comportano come vere e proprie “black box” (scatole nere) producono risposte, ma senza che sia chiaro come ci siano arrivati o perché abbiano scelto proprio quelle.

Con milioni – spesso miliardi – di parametri che interagiscono in modi opachi anche agli esperti, comprendere davvero cosa accade “dentro” questi modelli è una delle sfide più urgenti della tecnologia contemporanea.

Cos’è una “black box” riferita a un sistema di IA ?

Un sistema è considerato una scatola nera quando:
• le sue decisioni non sono spiegabili in modo comprensibile.
• il suo funzionamento interno non è accessibile o interpretabile da esseri umani,
• l’output non può essere ricondotto a regole chiare e trasparenti.

Perché dovremmo preoccuparcene?

• Fiducia e trasparenza: se non capiamo come funziona l’IA, è difficile fidarsi delle sue decisioni.
• Responsabilità: in settori delicati come medicina, giustizia o finanza, sapere chi o cosa ha preso una decisione è fondamentale.
• Bias e discriminazioni: se i modelli apprendono dai dati, rischiano di replicarne (o amplificarne) i pregiudizi. E senza trasparenza, accorgersene o correggerli diventa quasi impossibile.

Alcuni esempi concreti

• Colloqui di lavoro: un algoritmo seleziona i candidati, ma non è chiaro in base a quali criteri → rischio di esclusioni ingiustificate.
• Veicoli autonomi: in caso di incidente, può risultare impossibile ricostruire il processo decisionale del sistema.
• Credito bancario: un prestito viene rifiutato, ma il cliente non riceve spiegazioni comprensibili → mancanza di tutela e diritto di replica.

Verso un’Intelligenza Artificiale spiegabile (XAI)

Per affrontare il problema della black box, la ricerca sta sviluppando tecniche di Explainable AI (XAI), volte a rendere interpretabili anche i modelli più complessi.
Anche le istituzioni si stanno muovendo:
• AI Act (UE): impone requisiti di trasparenza per i sistemi ad alto rischio.
• GDPR: garantisce il diritto a ottenere spiegazioni significative per decisioni automatizzate.
• Linee guida etiche (OCSE, UNESCO): promuovono tracciabilità, auditabilità e responsabilità.

Conclusioni

La “black box” dell’IA generativa è uno degli ostacoli principali a un’adozione consapevole e responsabile dell’intelligenza artificiale.

Rendere questi sistemi più trasparenti non è solo un obiettivo tecnologico: è una priorità etica e sociale. Solo così potremo usare l’IA con maggiore sicurezza, equità e consapevolezza.

Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/
Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Ti piace l'informazione del Foglietto?

Se ti piace quello che leggi, puoi aiutarci a continuare il nostro lavoro sostenendoci con quanto pensi valga l'informazione che hai ricevuto. Anche il costo di un caffè!

SOSTIENICI

empty alt

Igiene delle mani: un’azione che salva la vita!

Ogni anno il 5 maggio l’Organizzazione Mondiale della Sanità celebra la Giornata mondiale...
empty alt

Overshoot Day. Italia in debito ecologico, stiamo consumando il futuro dei nostri figli

Il 3 maggio 2026, tra due giorni, l’Italia entra in debito ecologico. Da questa data, secondo il...
empty alt

Data center, non solo straordinaria fame di energia ma anche finanziaria

Dei data center, che ormai spuntano come funghi da ogni dove, si conosceva la straordinaria fame...
empty alt

Bevagna omaggia Francesco d'Assisi, a 800 anni dalla morte

Dal 30 aprile al 3 maggio, storici, docenti universitari, ricercatori, musicisti, giocolieri e...
empty alt

26 aprile 1986: il disastro nucleare di Chernobyl

Quarant’anni fa, in Ucraina, la mattina del 26 aprile 1986 segnò uno spartiacque nella storia...
empty alt

Ricerca: grazie a una molecola, l’immunoterapia potrebbe curare anche i tumori 'freddi'

L'immunoterapia rappresenta una delle rivoluzioni più importanti dell’oncologia moderna perché non...
Back To Top