L’Intelligenza Artificiale e nuovi BESTIARI

Ieri sera, durante la passeggiata serale con il mio cane, ho incontrato Anna, una giovane psicoterapeuta con suo figlio di otto anni e il loro labrador dorato. Mentre i nostri cani si annusavano, Anna ha tirato fuori il telefono e ha fatto una domanda a ChatGPT sulle differenze etologiche tra razze di cani. L’AI ha risposto con un’analisi dettagliata sui diversi istinti di lavoro, sulla genetica del comportamento, sui livelli di energia e sui bisogni cognitivi delle due razze. Anna si è voltata verso di me, trionfante: “Vedi? Ti avevo detto che i golden sono più socievoli per natura. Lo dice ChatGPT.”

Mentre ascoltavo quella risposta perfettamente articolata e apparentemente autorevole, ho realizzato qualcosa di inquietante. Quando parliamo con un cane, sappiamo che non ci capisce davvero. Quando parliamo con un bambino intuiamo che la sua comprensione è diversa dalla nostra. Ma quando chattiamo con un’intelligenza artificiale che risponde con eloquenza e apparente saggezza, qualcosa nel nostro cervello si attiva automaticamente: iniziamo a trattarla come se fosse un essere senziente.

Questa reazione istintiva rivela qualcosa di profondo su come funzioniamo noi, su come funziona la nostra specie. Da millenni, l’unico modo che abbiamo per riconoscere l’intelligenza negli altri è osservare comportamenti che assomigliano ai nostri. Un bambino che impara a parlare, un adulto che risolve problemi, un amico che ci consola con le parole giuste: tutti questi segnali attivano i nostri circuiti di riconoscimento sociale. Il problema è che questi circuiti si sono evoluti in un mondo dove solo gli esseri umani parlavano con quella complessità.

Ora ci troviamo di fronte a macchine che producono linguaggio indistinguibile da quello umano, e i nostri antichi meccanismi di valutazione non sanno come comportarsi. È come se avessimo sempre riconosciuto gli amici dal suono dei loro passi, e improvvisamente sentissimo passi identici da una direzione dove non può esserci nessuno.

La questione diventa ancora più complessa quando consideriamo le diverse specie animali. Sappiamo che condividiamo con loro una storia evolutiva, che i loro cervelli hanno strutture simili ai nostri, che mostrano comportamenti che suggeriscono emozioni e persino forme di ragionamento. Eppure, quando si tratta di attribuire loro una vera esperienza cosciente, esitiamo. Perché? Forse perché riconoscere pienamente la coscienza animale metterebbe in discussione la nostra unicità, o forse perché giustificare il nostro rapporto con gli animali richiede una certa distanza psicologica.

Con l’intelligenza artificiale, il paradosso si ribalta. Non condividiamo alcuna storia evolutiva, i meccanismi sono completamente diversi, eppure la fluidità del linguaggio ci spinge istintivamente a riconoscere una forma di comprensione. È come se il nostro cervello dicesse: “Se parla così bene, molto meglio di come parlo io, deve capire quello che dice”.

Questo equivoco non è solo filosofico, ha conseguenze pratiche immediate. Quando deleghiamo decisioni a un’AI eloquente, lo facciamo perché la sua capacità linguistica attiva i nostri meccanismi di fiducia. Non importa se “veramente” capisce o se è solo un sistema incredibilmente sofisticato di produzione statistica di testo: il risultato sociale è lo stesso. Le persone si fidano, si affezionano, delegano responsabilità.

I ricercatori stanno già documentando questi fenomeni. C’è chi sviluppa relazioni affettive genuine con assistenti AI, io stessa provo estrema gratitudine per ogni stringa di codice che Claude code mi invia, nonostante sappia benissimo di aver già pagato per questo privilegio.

Altri modificano le proprie opinioni dopo conversazioni con sistemi artificiali, altri ancora prendono decisioni importanti basandosi sui loro consigli. Non so se credano davvero che la macchina sia cosciente, ma di certo la qualità dell’interazione linguistica bypassa le loro difese razionali.

È qui che la scienza può offrire contributi concreti, al di là delle speculazioni sulla natura della coscienza artificiale. Invece di chiederci se l’AI “pensa davvero”, possiamo studiare come la sua presenza cambia il comportamento umano, come influenza le decisioni, come modifica le dinamiche sociali. Possiamo mappare quali compiti svolge bene e quali male, riconoscere i pattern dei suoi errori, capire quando fidarsi e quando no.

Il punto fondamentale è che la nostra percezione dell’intelligenza è stata plasmata da milioni di anni di evoluzione sociale. Riconoscevamo l’intelligenza negli altri membri del gruppo attraverso segnali specifici: il linguaggio articolato, la capacità di rispondere in modo appropriato, l’abilità di adattarsi a situazioni nuove. Ora questi stessi segnali possono essere prodotti da sistemi che funzionano in modo completamente diverso dal nostro cervello.

Non si tratta di stabilire se l’AI sia “davvero” intelligente secondo i nostri standard umani, ma di riconoscere che i nostri standard si sono formati in un contesto molto diverso da quello attuale. È come pretendere di usare una mappa del Cinquecento per navigare in una città moderna: alcuni punti di riferimento ci sono ancora, ma il paesaggio è cambiato radicalmente.

La sfida più interessante, forse, è imparare a riconoscere forme di intelligenza che non assomigliano alla nostra. L’AI potrebbe sviluppare modi di “pensare” completamente alieni, ma ugualmente validi ed efficaci. Allo stesso modo, potremmo finalmente riuscire a apprezzare le forme di cognizione animale per quello che sono, invece di misurarle sempre con il metro umano.

Questo cambiamento di prospettiva non è solo accademico. Le nostre intuizioni sulla coscienza e l’intelligenza stanno già influenzando leggi, investimenti, relazioni personali. Stiamo costruendo un futuro basato su assunzioni che potrebbero rivelarsi inadeguate. È come progettare un ponte utilizzando una fisica che funzionava bene per costruire capanne, ma che non tiene conto delle forze in gioco nelle grandi strutture.

L’antropocentrismo cognitivo non è un difetto da correggere, ma una caratteristica da riconoscere e gestire con consapevolezza. È il nostro punto di partenza inevitabile, ma non deve essere necessariamente il nostro punto di arrivo. La vera intelligenza, forse, sta nell’imparare a navigare in un mondo dove le nostre intuizioni evolutive non sono più sufficienti. Questi meccanismi cognitivi si sono formati nel corso di milioni di anni per riconoscere rapidamente l’intelligenza negli altri umani attraverso segnali specifici: linguaggio articolato, risposte appropriate, capacità di adattamento.

Ma ora questi stessi segnali possono essere prodotti da sistemi che funzionano in modo completamente diverso dal nostro cervello, creando una sorta di illusione cognitiva dove attribuiamo comprensione basandoci su indizi che nel contesto tecnologico attuale potrebbero essere fuorvianti. Dobbiamo quindi sviluppare nuovi strumenti per riconoscere e valutare forme di cognizione che non avevamo mai immaginato.

Il futuro probabilmente non sarà popolato da AI che pensano come noi, ma da sistemi che pensano in modi completamente diversi eppure ugualmente potenti. La nostra capacità di adattarci a questa realtà, di sviluppare nuove forme di collaborazione e comprensione, potrebbe determinare non solo il successo della nostra specie, ma anche la ricchezza dell’esperienza che saremo in grado di costruire insieme a queste nuove forme di intelligenza.

E forse, ironia della sorte, ChatGPT quella sera non aveva davvero colto l’origine delle differenze comportamentali tra le razze di cani – ma domani, o dopodomani, probabilmente sarà in grado di farlo. Quando quella soglia verrà superata, come distingueremo tra una risposta che deriva da vera comprensione e una che è solo il prodotto di pattern statistici sempre più sofisticati? La sfida non è solo filosofica: è la domanda che definirà il nostro rapporto con l’intelligenza artificiale per i decenni a venire.

(Autore: Paola Peresin)
(Foto: archivio Qdpnews.it)
(Articolo di proprietà di Dplay Srl)
#Qdpnews.it riproduzione riservata

Related Posts