L’intelligenza artificiale e la fauna selvatica rappresenta oggi un entusiasmo da temperare
Immaginate di ricevere i risultati di un esame del sangue. I valori sono lì, ordinati in colonne, con unità di misura e intervalli di riferimento. Tutto sembra chiaro, persino rassicurante. C’è una tentazione, comprensibile e umana, di pensare che quei numeri parlino da soli, che la medicina sia in fondo una questione di soglie e indicatori, e che la presenza del medico sia quasi una formalità. Eppure chiunque abbia vissuto una diagnosi complessa sa bene che i valori dell’esame del sangue non dicono nulla senza qualcuno capace di leggerli alla luce di una storia clinica, di un’osservazione diretta, di una competenza costruita nel tempo. I numeri non interpretano se stessi.
Qualcosa di molto simile sta accadendo nel campo della gestione faunistica, dove l’intelligenza artificiale ha fatto il suo ingresso con una forza e una velocità che hanno generato, accanto a risultati genuinamente promettenti, un entusiasmo che rischia di precedere la comprensione.
Vanno oggi molto in voga i modelli di visione artificiale applicati alla fauna: strategie computazionali per rilevare, classificare e, in alcuni casi, riconoscere il singolo individuo all’interno di una specie, basate su reti neurali profonde come YOLO e MegaDetector per il rilevamento, ResNet, VGG o EfficientNet per la classificazione, e sistemi di metric learning con triplet loss o ArcFace per il riconoscimento individuale. Tutti producono metriche di accuratezza che possono sembrare straordinarie. Novantadue percento, novantasei percento, a volte oltre. Questi numeri circolano nelle presentazioni, nei comunicati stampa, persino nei paper scientifici, e creano l’impressione che il problema del monitoraggio della fauna sia, in linea di principio, risolto. Ma c’è un dettaglio che quelle percentuali non raccontano: sono quasi sempre misurate sugli stessi dati su cui il modello è stato addestrato, o su dataset costruiti nelle stesse condizioni, nello stesso luogo, nella stessa stagione, con le stesse fotocamere.
Un modello addestrato a riconoscere i lupi nelle foreste del nord Europa può diventare cieco davanti a un lupo ripreso in condizioni di luce diversa, con neve, o in un habitat differente. Un sistema capace di identificare individualmente gli orsi bruni in Alaska può perdere completamente questa capacità applicato a una popolazione diversa, fotografata con angolazioni o risoluzioni diverse. Questo fenomeno, che in gergo tecnico si chiama domain shift, non è un difetto marginale: è una caratteristica strutturale di questi modelli, che apprendono a generalizzare solo nei limiti di ciò che hanno visto. E ciò che hanno visto è quasi sempre molto meno vario del mondo reale.
Il problema si complica ulteriormente quando si considera la natura stessa dei dati su cui questi modelli vengono addestrati. I dataset disponibili per la fauna selvatica sono storicamente sbilanciati: alcune specie carismatiche o facilmente avvistabili sono sovra-rappresentate, mentre altre — magari quelle di maggiore interesse conservazionistico — compaiono in pochissimi esempi. La distribuzione geografica è altrettanto disomogenea, con una netta prevalenza di immagini raccolte in Nord America ed Europa rispetto ad Africa, Asia tropicale o Sud America. Addestrare un modello su questi dati e poi usarlo globalmente equivale a costruire un sistema diagnostico calibrato esclusivamente su pazienti di una sola fascia d’età e di una sola etnia, e applicarlo a tutta la popolazione mondiale.
Si potrebbe obiettare che il problema scompare se il modello viene usato esattamente dove è stato addestrato: stessa area, stessa stagione, stesse condizioni. In parte è vero, e in quei casi ristrettissimi i risultati possono essere affidabili. Ma la fauna non conosce i confini dei dataset, le popolazioni si muovono, le stagioni cambiano, e soprattutto le domande ecologiche che contano raramente coincidono con le condizioni in cui il modello è stato costruito. Un sistema che funziona bene solo quando il mondo si comporta esattamente come previsto non è uno strumento scientifico: è una tautologia costosa.
C’è poi una questione più sottile, che riguarda il confine tra accuratezza tecnica e validità biologica. Un modello può riconoscere un individuo o una specie in un’immagine e tuttavia non fornire alcuna informazione utile per capire se quella specie stia aumentando o diminuendo, se la popolazione sia sana, se le interazioni con il territorio stiano cambiando. Il conteggio automatizzato degli individui in un’area non è equivalente a una stima della densità di popolazione. Il rilevamento di un comportamento su un filmato non è equivalente alla comprensione delle sue cause ecologiche. Eppure è proprio qui, in questo passaggio apparentemente ovvio tra il dato e il suo senso, che si annidano le inferenze più rischiose: non nelle elaborazioni complesse, non nei modelli sofisticati, ma nel momento in cui qualcuno smette di chiedersi cosa significhi davvero ciò che sta leggendo.
Questo è il punto in cui la metafora medica torna con tutta la sua forza. L’esame del sangue è uno strumento prezioso, ma è uno strumento. Richiede qualcuno che sappia per quale ragione è stato richiesto, cosa cercare, come leggere le anomalie in relazione all’insieme, quando fidarsi del risultato e quando ripeterlo. Allo stesso modo, i modelli di intelligenza artificiale applicati alla fauna possono essere strumenti preziosi, ma richiedono la presenza di qualcuno che conosca la specie, il territorio, la stagionalità, le dinamiche di popolazione, le trappole metodologiche. Questo qualcuno è il biologo, la figura la cui competenza non è riproducibile da un algoritmo, perché si costruisce attraverso anni di osservazione diretta, di esperienza sul campo, di errori e correzioni.
Il rischio che si sta delineando non è teorico. In alcuni contesti istituzionali e progettuali, l’adozione di strumenti automatizzati di riconoscimento sta progressivamente sostituendo — o giustificando la riduzione — delle risorse umane dedicate al monitoraggio. L’argomento è apparentemente ragionevole: se la macchina conta gli animali meglio e più in fretta dell’uomo, perché pagare il biologo? La risposta è che la macchina non conta meglio: conta in modo diverso, più veloce in certe condizioni, meno affidabile in molte altre, e soprattutto conta senza capire. E la gestione di un ecosistema richiede capire.
Non si tratta di essere ostili all’innovazione. Le tecniche di intelligenza artificiale applicata alla fauna hanno già prodotto scoperte genuine: il riconoscimento individuale di orsi bruni attraverso la posa, il tracciamento di dinamiche predatore-preda nei reef tropicali, il monitoraggio scalabile di popolazioni difficili da censire. Queste sono conquiste reali. E sarebbe sciocco ignorarle, così come sarebbe sciocco ignorare che la risonanza magnetica ha trasformato la neurologia, che la TAC ha reso visibile l’invisibile, che la radiografia ha letteralmente cambiato il corso della medicina. Nessun neurologo sano di mente rinuncerebbe alla risonanza magnetica. Ma nessun paziente sano di mente si affiderebbe alla risonanza magnetica senza un neurologo. Lo strumento amplifica la competenza: non la sostituisce, non la simula, non la rende superflua. Un radiologo con una TAC vede cose che nessun occhio nudo potrebbe vedere. Un architetto con un software di modellazione strutturale progetta edifici che resistono a sollecitazioni che nessuna intuizione manuale potrebbe anticipare. Un sommelier con uno spettrometro di massa identifica componenti aromatiche che il naso, da solo, non saprebbe isolare. Un biologo con un buon modello di computer vision può monitorare migliaia di individui in territori vastissimi, rilevare presenze notturne, tracciare spostamenti su scale temporali prima impraticabili. Questi sono superpoteri reali, e sarebbe ingenuo non volerli. Il problema nasce quando si comincia a pensare che il superpotere risieda nella macchina, e non nella mente che la governa. A quel punto non abbiamo più un biologo potenziato: abbiamo un algoritmo lasciato solo davanti a un ecosistema, il che è più o meno come affidare una TAC cranica a chi non sa distinguere un lobo frontale da un’ombra sul sensore, o consegnare il software strutturale a qualcuno che non sa cosa sia una trave. Il risultato sarà comunque un output. Splendido, ad alta risoluzione, corredato di grafici. E completamente privo di significato.
La maturità nell’uso dell’intelligenza artificiale per la conservazione della natura si misurerà dalla capacità di integrare questi strumenti senza smettere di investire nelle persone che li rendono significativi. Il pericolo non è la tecnologia in sé, ma la narrazione che la tecnologia sia sufficiente. Quella narrazione, nella scienza come in medicina, ha già causato danni. Vale la pena non ripeterli.
(Autore: Paola Peresin)
(Foto: archivio Qdpnews.it)
(Articolo di proprietà di Dplay Srl)
#Qdpnews.it riproduzione riservata








