l “model collapse” è un fenomeno simile alla consanguineità: quando le AI si nutrono solo di contenuti generati da altre AI, la ricchezza genetica dei dati svanisce. Così, la creatività si inaridisce e i modelli degenerano in copie di copie sempre più povere.
La storia dovrebbe essere Magistra Vitae: le comunità isolate che, per secoli, si sono riprodotte solo al proprio interno con il passare delle generazioni sono diventate sempre più deboli fino ad estinguersi, La consanguineità favorisce la diffusione delle malattie genetiche e la vitalità complessiva si riduce.
Ora trasportiamo questo scenario nel mondo dell’intelligenza artificiale. Il fenomeno ha un nome tecnico: model collapse, il collasso dei modelli. Si verifica quando i sistemi di AI vengono addestrati non più su dati umani, freschi e vari, ma su contenuti prodotti da altre AI. È come se la linfa vitale del sapere fosse sostituita da una copia della copia della copia.
All’inizio sembra innocuo. Un articolo generato da un modello, una traduzione automatica, un’immagine sintetica: perché non riutilizzarli come dati di training? In fondo sembrano realistici. Ma con il tempo, il dataset si impoverisce. I modelli non imparano più dal mondo, dalla sua complessità e imprevedibilità, bensì da un universo ristretto e sterilizzato. È il corrispettivo digitale della consanguineità: invece di geni differenti che si mescolano, troviamo pattern sempre uguali che si ripetono.
Gli effetti sono sottili ma devastanti. Le prime generazioni di AI “autoalimentate” iniziano a produrre testi corretti, ma piatti, privi di sfumature. Le immagini si uniformano: occhi perfetti, ma senza anima, scenari lucidi ma indistinti. La varietà linguistica si riduce, le espressioni diventano stereotipate, i concetti riciclati. Alla lunga, la creatività evapora e il modello diventa sterile: non genera più innovazione, ma solo varianti stanche di ciò che già conosce.
Il paragone con la storia è inquietante. Alcune dinastie reali europee, come quella degli Asburgo, hanno pagato un prezzo altissimo per i matrimoni tra consanguinei. L’AI non rischia malattie genetiche, ma soffre di un destino simile: l’impoverimento dei dati equivale all’impoverimento della specie.
Ciò che rende il problema urgente è la sua natura silenziosa. Non ci accorgiamo subito del collasso: i modelli continuano a funzionare, i testi appaiono coerenti, le immagini realistiche. Ma sotto la superficie, il capitale informativo si sta consumando. È come un lago che, alimentato solo da sé stesso, evapora goccia dopo goccia.
La soluzione? Riportare “sangue nuovo” nei dati. L’AI ha bisogno di essere nutrita con contenuti umani, originali, provenienti da esperienze reali e da fonti non sintetiche.
Serve vigilanza per distinguere ciò che è autentico da ciò che è generato artificialmente e serve responsabilità per evitare che l’abbondanza apparente di dati diventi in realtà una carestia informativa. In caso contrario, ci troveremmo davanti a un paradosso crudele: più AI produciamo, meno intelligenza avremo a disposizione.
(Autore: Alessandro Mattavelli – Sistema Ratio)
(Foto: archivio Qdpnews.it)
(Foto di proprietà di Dplay Srl)
#Qdpnews.it riproduzione riservata








