Riprendendo una questione già dibattuta nel 2024, abbiamo chiesto a 10 AI quanto fa 9,9-9,11, la metà continua a dare un risultato non corretto. Ecco come è andata e perché.
Nel luglio 2024 apparve per la prima volta un thread sul fatto che per Chat Gpt 9,11 era più grande di 9,9. Qualche giorno fa il post di un amico (grazie Eraldo per l’ispirazione) faceva notare che anche il modernissimo O3 alla domanda decontestualizzata 9,9-9,11 rispondeva candidamente -0,21.
E il problema non è solo di tutti i modelli di Chat GPT plus ma anche di Copilot, Claude, Mistral, Gemini mentre Perplexity, Deep Seek, Vitruvian (orgoglio italiano), Qwen e Grok ci azzeccano al primo colpo.
La prima cosa che colpisce e che spinge a una riflessione è che nessun modello quando sbaglia è in grado di spiegare quale fraintendimento lo ha portato a dare il risultato – 0,21. Abbiamo fatto diverse prove con molte altre sottrazioni e ci siamo accorti che gli errori sono più frequenti nei casi di conti semplici e vicini al 9 e regolarmente l’errore è di 1 unità. Abbiamo provato quindi a darci una spiegazione, ma siamo pronti ad essere smentiti. È come se andasse in crisi con i “prestiti” delle operazioni in colonna e con la regola, imparata alla primaria ma poi smentita col proseguire degli studi, che non si può sottrarre un numero più grande ad uno più piccolo.
L’errore potrebbe essere frutto di un patchwork di regole mal applicate e non compatibili tra loro. Il risultato – 0,21 deriva dal fatto che, confondendosi sulla parte decimale ed essendo convinto che 9 è minore di 11 e non che si può sottrarre un numero più grande da uno più piccolo, ha la brillante idea di invertire i due numeri, come correttamente previsto nell’algoritmo di soluzione delle sottrazioni aventi risultato negativo, trasformando l’operazione in 9,11-9,90 per poi tentare di risolverla in colonna con risultati disastrosi; trovandosi in difficoltà toglie 1 (forse per senso di colpa) alle unità del primo termine e ottiene 8,11-9,9=-0,21.
Attenzione: non sbaglia sempre e a volte restituisce per imperscrutabili motivi un risultato corretto di 0,65. Non solo: se le operazioni diventano complesse e con molti decimali, difficilmente sbaglia, un po’ come se di fronte a calcoli complessi si impegnasse di più, un po’ come se, in assenza di contesto, il contesto se lo creasse da solo (in un articolo precedente avevamo mostrato come risolvesse brillantemente gli integrali).
Prima di stracciarci le vesti e buttare tutto all’aria e rispolverare i regoli a cui eravamo tanto affezionati, ricordiamo che i modelli linguistici non sono progettati per fare calcoli diretti come una calcolatrice. Quando viene richiesta un’operazione matematica, l’AI non segue un processo passo-passo, ma genera risposte basate su schemi appresi durante l’addestramento. Senza contesto specifico, l’intelligenza artificiale non utilizza algoritmi numerici o “calcolatori interni”, sembra che non ragioni o che ragioni male e non solo quando si tratta di calcoli matematici.
Provate anche voi a casa o sotto l’ombrellone: scrivete 9,9-9,11: vedrete un risultato. In una nuova chat se digitate: quanto fa 9,9-9,11 vedrete che improvvisamente otterrete 0,79. Se poi aggiungete: “risolvi questo calcolo come farebbe un matematico mostrando i passaggi”, la correttezza del calcolo è garantita. Piccoli cambiamenti possono portare risultati opposti e soddisfacenti.
(Autore: Alessandro Mattavelli – Sistema Ratio)
(Foto: archivio Qdpnews.it)
(Foto di proprietà di Dplay Srl)
#Qdpnews.it riproduzione riservata