Giornale on-line fondato nel 2004

Domenica, 14 Dic 2025

I modelli di Intelligenza Artificiale Generativa, come ChatGPT, non vengono programmati riga per riga, come si fa con i software tradizionali. Imparano da soli analizzando grandi quantità di dati, testi e informazioni.

In pratica, non eseguono istruzioni precise scritte da un programmatore, ma si addestrano a riconoscere schemi e a generare risposte basandosi su ciò che hanno imparato. È un cambiamento importante: si passa da una logica “programmata” a una logica “addestrata”. Questo li rende straordinariamente potenti, ma anche difficili da decifrare.

Il risultato?

Sistemi che si comportano come vere e proprie “black box” (scatole nere) producono risposte, ma senza che sia chiaro come ci siano arrivati o perché abbiano scelto proprio quelle.

Con milioni – spesso miliardi – di parametri che interagiscono in modi opachi anche agli esperti, comprendere davvero cosa accade “dentro” questi modelli è una delle sfide più urgenti della tecnologia contemporanea.

Cos’è una “black box” riferita a un sistema di IA ?

Un sistema è considerato una scatola nera quando:
• le sue decisioni non sono spiegabili in modo comprensibile.
• il suo funzionamento interno non è accessibile o interpretabile da esseri umani,
• l’output non può essere ricondotto a regole chiare e trasparenti.

Perché dovremmo preoccuparcene?

• Fiducia e trasparenza: se non capiamo come funziona l’IA, è difficile fidarsi delle sue decisioni.
• Responsabilità: in settori delicati come medicina, giustizia o finanza, sapere chi o cosa ha preso una decisione è fondamentale.
• Bias e discriminazioni: se i modelli apprendono dai dati, rischiano di replicarne (o amplificarne) i pregiudizi. E senza trasparenza, accorgersene o correggerli diventa quasi impossibile.

Alcuni esempi concreti

• Colloqui di lavoro: un algoritmo seleziona i candidati, ma non è chiaro in base a quali criteri → rischio di esclusioni ingiustificate.
• Veicoli autonomi: in caso di incidente, può risultare impossibile ricostruire il processo decisionale del sistema.
• Credito bancario: un prestito viene rifiutato, ma il cliente non riceve spiegazioni comprensibili → mancanza di tutela e diritto di replica.

Verso un’Intelligenza Artificiale spiegabile (XAI)

Per affrontare il problema della black box, la ricerca sta sviluppando tecniche di Explainable AI (XAI), volte a rendere interpretabili anche i modelli più complessi.
Anche le istituzioni si stanno muovendo:
• AI Act (UE): impone requisiti di trasparenza per i sistemi ad alto rischio.
• GDPR: garantisce il diritto a ottenere spiegazioni significative per decisioni automatizzate.
• Linee guida etiche (OCSE, UNESCO): promuovono tracciabilità, auditabilità e responsabilità.

Conclusioni

La “black box” dell’IA generativa è uno degli ostacoli principali a un’adozione consapevole e responsabile dell’intelligenza artificiale.

Rendere questi sistemi più trasparenti non è solo un obiettivo tecnologico: è una priorità etica e sociale. Solo così potremo usare l’IA con maggiore sicurezza, equità e consapevolezza.

Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/
Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Ti piace l'informazione del Foglietto?

Se ti piace quello che leggi, puoi aiutarci a continuare il nostro lavoro sostenendoci con quanto pensi valga l'informazione che hai ricevuto. Anche il costo di un caffè!

SOSTIENICI

empty alt

L’Opec sul petrolio gioca al ribasso

Sembra che l’Opec sia tornata al passato, ai primi anni Dieci del nuovo secolo, quando...
empty alt

UniPi celebra il bicentenario della istituzione della cattedra di Egittologia

A Pisa 200 anni fa, per la prima volta al mondo, l’Egittologia faceva il suo ingresso in un’aula...
empty alt

Giornata Mondiale dei Diritti Umani 2025: il ruolo delle scienziate

Diverse donne di scienza, in epoche e discipline differenti, hanno unito ricerca e impegno per i...
empty alt

“L’ombra del corvo”, film struggente, inquietante, a tratti spaventoso

L’ombra del corvo, regia di Dylan Southern, (titolo originale The Thing with Feathers, tratto dal...
empty alt

La seconda missione dell’ivacaftor, farmaco finora attivo contro la fibrosi cistica

Nel mondo della medicina di precisione l’ivacaftor, uno dei primi farmaci approvato contro la...
empty alt

Anci e Legambiente al Governo: stanziare maggiori fondi per demolizione immobili abusivi

Come emerge dall’indicatore sull’abusivismo edilizio curato dall’Istat in collaborazione con il...
Back To Top