L’Intelligenza artificiale prende sempre più piede nel mondo in quest’alba del terzo millennio. Tanti ne parlano sempre più consapevoli che siamo probabilmente di fronte a una nuova, eclatante rivoluzione, ma quando e perché è nata l’IA? Con quali obiettivi? Quali vantaggi e quali svantaggi può apportare?
Dopo le riflessioni sul tema del musicista Enrico Nadai e dell’avvocato Alberto Bozzo, Qdpnews.it ha affrontato l’argomento con il dottor Filippo Pianca (in foto), nato e cresciuto a Vittorio Veneto, dove ha conseguito la maturità classica al Liceo “Marcantonio Flaminio”, e attualmente Dottorando di ricerca in Filosofia all’Università Cattolica del Sacro Cuore di Milano, dove si occupa delle implicazioni etiche, bioetiche e antropologiche legate alle tecnologie digitali. Si è formato tra Verona, Milano, Roma, gli Stati Uniti e la Germania, dove ha da poco concluso un periodo di ricerca alla Eberhard Karls Universität di Tübingen. Oltre a studiare filosofia gli piace viaggiare, scrivere poesie e camminare sulle Dolomiti.
Dottor Pianca, a chi è attribuibile, e a quando, la nascita dell’Intelligenza artificiale? Di cosa si tratta e con quali obiettivi venne creata?
“Ufficialmente l’Intelligenza artificiale (IA), come àmbito di ricerca e applicazione, come tecno-scienza, nasce nel 1956, quando un gruppo di matematici e informatici (solo uomini) capitanato da John McCarthy si riunì al Dartmouth College, negli Stati Uniti, per studiare il modo in cui simulare tramite macchine computazionali (quelli che oggi, più banalmente, chiamiamo computer) l’intelligenza umana e le sue caratteristiche, tra cui l’apprendimento.
Questo gruppo di ricercatori era interessato a sviluppare “macchine intelligenti” (definite anche “pensanti”), vale a dire computer capaci di utilizzare il linguaggio, formulare astrazioni e risolvere problemi, non per forza solo aritmetici. Per McCarthy, in particolare, parlare di IA significava voler iniziare a costruire macchine informatiche capaci di esibire comportamenti che sarebbero definiti intelligenti se fosse un essere umano a manifestarli. Questa finalità evidenzia la grande influenza che ebbe in quegli anni il cosiddetto “test di Turing”, o gioco dell’imitazione (sul tema suggerisco la visione dell’omonimo film diretto da Tyldum uscito nel 2014), secondo il quale, nel caso in cui un computer desse delle risposte indistinguibili da quelle di un essere umano, saremmo di fronte ad una “macchina intelligente”. Il che, per Alan Turing, significava “pensante”.
Negli ultimi settant’anni sono state scritte migliaia di pagine per appoggiare e confutare questa idea. Oggi questo dibattito è più vivo che mai, scisso tra chi crede che abbiamo di fronte (finalmente) delle “macchine intelligenti” e chi, invece, ritiene che non esisteranno mai dei “computer pensanti”, dato che si tratta “solo” di metodi statistico-probabilistici molto sofisticati. In origine, le ricerche sull’IA erano finanziate principalmente dal settore militare – siamo negli anni della Guerra Fredda – e, per quanto esista una data ufficiale, l’IA non nasce dal nulla. La storia del pensiero e delle idee è ricca di precursori che ne hanno condizionato la fondazione. Basti pensare alle teorie di Aristotele, Cartesio, Hobbes, Leibniz“.
Ci sono davvero professioni e mestieri in cui le persone rischiano seriamente di essere “soppiantate” dall’Intelligenza artificiale? Se sì, può indicarne alcuni?
“L’IA e le tecnologie digitali in generale hanno introdotto una rivoluzione culturale che, di fatto, è anche industriale. Molti la chiamano “quarta rivoluzione industriale”: un nuovo modo di produrre integrando nei processi lavorativi non solo IA e robotica, ma anche realtà aumentata, tecnologie cloud e big data analytics (vale a dire il processo di raccolta e analisi di grandi volumi di dati per estrarne informazioni).
Come già avvenuto, storicamente, durante le prime tre rivoluzioni industriali, anche oggi molte professioni stanno attraversando considerevoli e rapide trasformazioni, se non addirittura sostituzioni. Secondo molti studi questa tendenza riguarderà pressoché tutte le attività lavorative, compresi l’insegnamento e il giornalismo (diversi quotidiani internazionali hanno già sperimentato l’uso dell’IA per automatizzare la scrittura di articoli di cronaca). Per fare un esempio specifico, si prevede che tassisti e camionisti, nel lungo periodo, verranno rimpiazzati dalle cosiddette “auto a guida autonoma” (espressione fuorviante), che renderanno i conducenti sempre più obsoleti.
Un altro esempio, più interessante, viene dall’àmbito medico. Ad oggi esistono molti sistemi di IA in grado di fornire diagnosi, prognosi e scelte terapeutiche spesso più accurate e precise di quelle formulate dai medici. Questa novità ha introdotto uno stravolgimento della medicina e del suo significato, oltre che della relazione medico-paziente, dato che la fiducia di chi è malato sembra che inizi a spostarsi dalla persona curante alla macchina che fornisce verdetti. Per comprendere e valutare questo cambiamento la medicina, che oggi è considerata una scienza e non più un’arte, non potrà che ascoltare quello che ha da dire la filosofia.
Chi prevede che molti lavori saranno rimpiazzati o eliminati dà (giustamente) per scontato che se ne creeranno di nuovi, sempre più afferenti alle discipline STEM (scienze, tecnologia, ingegneria e matematica). Avremo sempre più bisogno di programmatori e ingegneri informatici e sempre meno di cassieri e assemblatori. Si tralascia, però, di considerare che i “lavori del futuro” continueranno, giocoforza, ad essere affiancati da “lavori del passato”: basti pensare ai minatori sottopagati e non di rado ridotti in condizioni di semi-schiavitù che, in diverse parti del mondo (ma perlopiù nel “Sud globale”), estraggono le materie necessarie alla produzione delle tecnologie digitali”.
Il mondo filosofico si sta occupando con particolare attenzione dell’Intelligenza artificiale: quali problemi, soprattutto etici, essa comporta per l’umanità?
“Il “bello” del mondo filosofico è che non è fatto solo di elucubrazioni ideali, distaccate dalla vita attiva e dalle esperienze concrete nel mondo. Mi ritengo fortunato ad aver avuto (e ad avere ancora) maestri del pensiero che esortano i propri studenti ad osservare e comprendere la realtà che li (ci) circonda. Si pensa alla filosofia come a un passatempo inutile, come ad un diletto da relegare alla terza età, alla pensione, quando in realtà tutti si è filosofi, nel senso di intrisi di visioni sul mondo e sulla vita, di opinioni e convinzioni. Questa premessa mi serve a confermare quanto, oggi, la filosofia si stia dedicando anche al fenomeno dell’IA.
Questa espressione, per inciso, è un ossimoro, dato che l’intelligenza ha sempre bisogno di un substrato, cioè di un supporto, biologico, neurale, per manifestarsi. Ma anche su questo punto il dibattito è acceso. Va detto, peraltro, che oggi continuare a parlare di “tecnica”, invece che di tecnologia, in riferimento all’IA rischia di dar adito a riflessioni non solo obsolete, ma anche inadeguate. Questo perché la nozione di “tecnica” rimanda a qualcosa di neutro, di per sé né buono né cattivo, quando invece ogni dispositivo, sistema, macchina, algoritmo è elaborato fin da subito per svolgere determinate funzioni sulla base di parametri molto precisi. La “tecnica”, inoltre, è sempre stata considerata come un “destino”, fatalmente, quindi come qualcosa di ingovernabile, inevitabile e immodificabile. Se questa è la premessa accettata, allora non ha tanto senso discutere di etica e governance del digitale, dato che la “tecnica” è inarrestabile. Ragionare sulla tecnologia, o per meglio dire sulle tecnologie, significa invece riguadagnare un punto di partenza elementare, ripetutamente sminuito: si tratta di un’impresa interamente umana, e come tale imbevuta di valori, idee, opinioni, interessi, desideri e visioni sull’uomo e sul mondo, oltre che di libertà e responsabilità personali.
Schematicamente, potremmo individuare due problematiche etiche legate all’IA. La prima la definirei “simbolica”: concerne il modo in cui le diverse narrative che ruotano attorno all’IA e alle altre tecnologie digitali, compresa la robotica, veicolano un’idea dell’essere umano come macchina. Non saremmo che degli automi, e la nostra “componente principale”, il cervello, non sarebbe che un computer. Si tratta di un auto-ritratto sempre più diffuso ma discutibile, date le sue ricadute pratiche: basti pensare a cosa ne è della nostra libertà una volta che ci auto-riduciamo a macchine.
La seconda problematica etica è, appunto, quella “pratica”: concerne il modo in cui l’IA trasforma il nostro modo di pensare, agire, relazionarci agli altri, decidere. Delegare, ad esempio, a un sistema di IA una scelta (il che significa accettare un responso statistico quasi fosse un oracolo infallibile) trasforma il senso della nostra autonomia e, dunque, della nostra responsabilità morale. A mio avviso l’etica, oggi, più che rincorrere il nuovo, più che prestarsi a legittimare cosa potremmo fare noi delle tecnologie digitali, dovrebbe soffermarsi a comprendere e valutare cosa queste tecnologie abbiano fatto, facciano e faranno di noi, dei nostri ambienti di vita e degli ecosistemi terrestri”.
Si pensa all’Intelligenza artificiale come a qualcosa di astratto, come a sistemi tecnologici immateriali: è davvero così?
“Si è tentati di credere che l’IA sia qualcosa di intangibile, di astratto. Anche il modo in cui ci viene presentata mediaticamente non aiuta. Basti pensare ad un concetto “parente”, il cloud, la “nuvola” dove abbiamo iniziato ad immagazzinare i nostri dati e le nostre informazioni. Si tratta di gruppi di server situati da qualche parte nel mondo, accesi tutto il giorno tutti i giorni. Lo stesso vale per la realtà virtuale – una delle sue manifestazioni più recenti è il “metaverso” – che assume un’aura quasi mistica di immaterialità: un mondo a cui posso accedere, visivamente e sonoramente, ma che in fondo sembra che io non possa toccare. Si tratta, in realtà, di espedienti retorici che servono a dissimulare, ma anche ad omettere, quanto la stessa IA e tutte le altre tecnologie digitali siano legate alla Terra, al pianeta: alla materia.
Per funzionare, i sistemi di IA e le relative architetture hanno bisogno di grandi quantità di energia, petrolio e acqua, oltre che di materie prime (come il litio, lo stagno e le terre rare), la cui estrazione e raffinazione accentua tutta una serie di questioni di giustizia sociale e al contempo ambientale: dallo sfruttamento di chi estrae le risorse alle condizioni di lavoro oppressive degli operai che assemblano le componenti hardware (per ora prevalentemente esseri umani), fino ai conflitti geopolitici e all’inquinamento causato dai processi produttivi e di smaltimento dei dispositivi consumati”.
Non esistono tecnologie digitali “pulite”, nel senso di green, di ecologiche. Per questo, oggi, occorre essere molto prudenti quando si discute di “transizioni gemelle” (ecologica e digitale): il rischio è quello di rinchiudere l’Europa in un immaginario deleterio, in una bolla auto-referenziale, mentre l’inquinamento e lo sfruttamento procedono (e si intensificano) nel resto del mondo”.
(Foto: Filippo Pianca).
#Qdpnews.it