top of page

L’Intelligenza artificiale e il male del presentismo

Tentare di comprendere la reale portata del fenomeno IA correggendo, attraverso le lenti della Storia, la tendenza che ci porta a sopravvalutare ciò che è contemporaneo



Grossolanamente, l’intelligenza artificiale (IA) può essere definita come l’impiego dei procedimenti informatici non più in funzione applicativa e subordinata, cioè consequenziale a indicazioni e istruzioni umane, ma in funzione esecutiva e autonoma, slegata da ogni direttiva. Esemplificando, adoperare l’elettronica per determinare la radice quadrata di 1.163 significa non concedere alcuna libertà d’azione a un elaboratore: il risultato non può che essere 34,102785 e ogni cifra diversa sarebbe sbagliata. In casi del genere non possiamo parlare di IA, malgrado tale uso della tecnologia presenti due enormi vantaggi in termini di efficacia: per svolgere la suddetta operazione un elaboratore impiega molto meno tempo di un essere umano e irrilevante è la possibilità che esso commetta un errore.

 

Altro discorso invece se si delega all’elettronica l’obiettivo di individuare obiettivi militari da bombardare, come fa Israele nella Striscia di Gaza: qui infatti è il software Lavender a decidere chi, come, dove e quando colpire (sul tema si veda Yuval Abraham, ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza, 3 aprile 2024). Il salto di qualità è considerevole, tuttavia cosa significano i termini “delegare” e “autonomia” quando parliamo di IA? Nel momento in cui un computer lancia una bomba su un edificio dove si presume sia presente un membro di Hamas (presunzione peraltro errata almeno una volta su dieci) così come nel caso – con implicazioni etiche meno serie – in cui uno studente liceale adoperi ChatGPT per farsi riassumere e commentare un libro che non ha voluto leggere, l’input viene comunque da un essere umano.

 

Proprio in questo input risiedono le dimensioni morale e intellettuale dei fatti, esecrabili o stimabili che siano. In altri termini, è l’uomo che muove il mondo, in base al principio per il quale è l’essere sociale a determinare la coscienza dell’uomo stesso, non il contrario. Cosa delega l’uomo all’IA, dunque? L’intero processo decisionale o lati secondari di esso? Premesso che “secondario” non vuol dire “irrilevante”, è incontestabile vi sia un’erosione delle competenze umane a favore della tecnologia. Con quanta velocità essa proseguirà e quali tappe toccherà è argomento cui soltanto i presuntuosi possono tentare di rispondere (peraltro, male), però la delega delle proprie competenze è una costante della storia dell’essere umano.

 

La nascita dell’agricoltura, circa diecimila anni prima di Cristo, ha comportato la presa d’atto che le mani da sole non erano sufficienti a coltivare la terra e per questo sono stati messi a punto i primi utensili. Solo la domesticazione degli animali ha tuttavia reso possibile l’impiego dell’aratro, con tutto ciò che ne è conseguito in termini di incremento di produttività. Ben prima dell’avvento dell’informatica l’uomo ha delegato agli animali una mansione al fine di ottimizzare le energie: produrre di più faticando di meno. Non per questo ha però perso la capacità di praticare l’agricoltura.

 

Allo stesso modo, l’uomo ha inventato: la stampa, ma tutti oggi scriviamo; la fotografia, ma si continua a dipingere; i calcolatori elettronici, ma nessuno ha disimparato la matematica; l’automobile, ma si continua a deambulare. Proseguire l’elenco non è importante. Lo è invece ribadire una costante storica: la delega da parte dell’uomo dei lati materiali della produzione di beni e servizi e il mantenimento da parte sua del controllo delle dinamiche produttive, con l’obiettivo di massimizzare la resa delle risorse disponibili. L’IA può far perdere tale controllo? L’incubo di Mary Shelley secondo cui il Prometeo della contemporaneità sia un essere mostruoso destinato a soverchiare irreversibilmente la nostra specie si sta traducendo in realtà? Se Lavender decide chi e dove bombardare, nessuna bestia da soma o nessun trattore hanno mai potuto o potranno decidere se e quando arare, né nessun motore di ricerca ha mai fornito notizie diverse da quelle relative ad argomenti propostogli da noi. Il rimarchevole salto di qualità è palese, tuttavia appare inserirsi in una dinamica storica consolidata e pienamente logica che non prevede la cessione a terzi dell’egemonia umana.

 

È sbagliato inquadrare la dicotomia uomo-IA prescindendo dal fatto che la nostra insopprimibile dimensione prometeica è il portato del desiderio umano di dominare la natura, e quindi è incarnazione di egemonia. Non si attua egemonia cedendo egemonia. Escludendo i pur presenti casi di fanatismo acritico, chi ha voluto l’IA non ha avuto l’intenzione di lasciare all’informatica il compito di gestire il mondo, ma ha creato uno strumento con cui dominarlo. L’IA non è una mente, bensì un braccio estremamente potente: la sua autonomia è più rilevante rispetto a quella delle tecnologie del passato, ma non è completa. I compiti che le vengono delegati sono considerevoli, ma non estranei alla sovrintendenza umana. Il problema legato ai rischi dell’IA non deriva dall’IA, ma può essere soltanto conseguente all’attuazione della logica più criminale che la mente umana abbia concepito: quella del profitto. Sono ovvie tre cose: un computer costa assai meno di un uomo; immagazzina molte più informazioni di esso; è pienamente fungibile. Asetticamente parlando, ciò lo rende un docente preferibile a un essere umano. Peccato però che la sostanza del termine “Intelligenza artificiale” non sia nel sostantivo ma nell’aggettivo, il quale vanifica il sostantivo stesso.

 

Per quanto lo si possa perfezionare, un combinato di software e hardware non potrà mai rendersi conto delle condizioni del contesto in cui è chiamato a operare e dell’imprevedibile mutevolezza dei comportamenti umani. Proprio per questo, se l’IA si trova davanti una studentessa appena lasciata dal fidanzato, quindi comprensibilmente impossibilitata a concentrarsi, a differenza del docente umano non saprà plasmare la sua lezione e la ragazza nulla capirà di ciò che le si spiega (e, proprio per questo, Lavender continuerà a uccidere persone che nulla hanno a che fare con Hamas). L’IA è uno strumento avanzato e raffinato, ma i suoi apologeti devono rassegnarsi all’evidenza: l’intelligenza è una prerogativa esclusiva degli esseri umani e non può avere succedanei.

 

Sarebbe più sensato chiamare l’IA in un modo meno accattivante dal punto di vista commerciale (e qui si ritorna alle logiche nefaste dell’ideologia del profitto), ma più appropriato da quello scientifico. Se parlare dei possibili rischi derivanti dall’IA è doveroso, prima di fare le pulci agli aspetti aleatori derivanti dal suo impiego sarebbe però sensato criticare le logiche strutturali in cui l’elemento sovrastrutturale IA viene calato. Le vere criticità e i veri pericoli risiedono lì, nell’idea che l’uomo sia un ordinario fattore di produzione sostituibile senza scrupoli con l’IA al mero fine di tagliare i costi della produzione stessa.

 

C’è poi un’altra questione. A chi scrive pare si tenda a dimenticare che ogni scoperta o invenzione porta con sé pericoli e necessita di un governo. Si pensi ai problemi incontrati dagli uomini che, oltre un milione di anni fa, domesticarono il fuoco. Ammesso siano quantificabili e soppesabili, si può essere così ingenui da pensare che siano stati inferiori rispetto a quelli insiti nell’impiego dell’IA? Esiste una tendenza antropologica che potremmo chiamare presentismo, la quale ci porta ad assegnare l’etichetta “rivoluzione” a ogni evento storico di un certo peso che si verifichi nel corso della nostra esistenza e a pensare che tale “rivoluzione” sia la più importante dell’intera storia dell’umanità. Ogni accadimento passato ci appare minuscolo e di portata limitata se paragonato a ciò che si verifica ai giorni nostri. Il presentismo è un errore in cui chi vuole agire con prospettiva storica non deve cadere. Quando si sente parlare dell’IA come di un fattore destinato a mutare la storia dell’uomo come mai accaduto prima è bene nutrire scetticismo. In primis il concetto di “rivoluzione” è empirico e soggettivo, per cui inquadrarlo in modo scientifico appare complicato.

 

Lo ha fatto mirabilmente Enzo Traverso nel suo Rivoluzione. 1789-1989: un’altra storia (Feltrinelli, 2021), ma in ambito contemporaneistico e politico. Si riuscisse a farlo su scala più ampia, come si potrebbe stilare una graduatoria in cui le rivoluzioni siano classificate per importanza? Cosa è contato di più nella storia? Avere inventato la macchina a vapore o il telescopio? Avere iniziato ad adoperare la ruota o il computer? Perché? Ogni fenomeno che definiamo rivoluzione ha prodromi e conseguenze. Alexis de Tocqueville ci ha insegnato che la Rivoluzione francese poté verificarsi anche perché la società di antico regime era ormai logora. Il 1789 fu dunque l’acme di un processo non predeterminato avente radici lontane nel tempo. Analogo principio vale per molteplici altri fenomeni, dal crollo dell’Impero romano di Occidente all’IA, della quale sogliamo dire che decide per noi.

 

Ma, nella società in cui viviamo, siamo sicuri di poter decidere ogni nostra azione? Quando entriamo in un supermercato – discorso che vale di più per i ceti meno abbienti – compriamo quello che vogliamo noi oppure acquistiamo ciò che ci possiamo permettere e che è offerto a prezzi scontati per decisione non certo nostra? Acquistiamo quello che ci serve e ci piace oppure quello che è stato messo da altri all’altezza dei nostri occhi e delle nostre braccia in base al dettato dello shelf marketing? In realtà, non si compra quel che si vuole, ma quel che vogliono gli altri in base alle loro esigenze di profitto. Le loro, si badi bene, non le nostre. Non saremo in una società orwelliana nel momento in cui l’IA si sarà definitivamente radicata. Lo siamo già da tempo e pochi se ne sono accorti: nessuno di essi è un presentista.

 

Ogni rivoluzione è dunque un po’ meno rivoluzione di quanto si potrebbe pensare. Detto dei prodromi, veniamo alle conseguenze. L’invenzione della stampa a caratteri mobili ha avuto effetti fin troppo noti per essere qui riepilogati. Non prevedibile era il fatto che la possibilità di stampare in modo relativamente facile un libro potesse essere un fenomenale veicolo di diffusione del protestantesimo del XVI secolo. Se per Lutero le sacre scritture potevano essere interpretate senza la mediazione del clero, Gutenberg, consentendo a larghe fasce di popolazione di potersi comprare la Bibbia, gettò inconsapevolmente benzina sul fuoco dello scisma dalla chiesa di Roma. Ogni rivoluzione è dunque un po’ più rivoluzione di quanto si potrebbe pensare.

 

C’è però un guaio: questo “un po’ più” non è preventivabile. Se si è davanti a una vera rivoluzione, ci sarà. In caso contrario, no. Allo stato attuale, non si sa se sarà mai possibile che l’IA possa guidare un’automobile al posto nostro. Soprattutto, però, non si sa ancora se ciò sia desiderabile. Può darsi che domani ci si renda conto che il ruolo del conducente è sì faticoso, ma non così tanto sgradevole da essere delegato a un software. Se così dovesse essere, si realizzerebbe che l’IA non può essere definita rivoluzionaria, ma semplicemente importante. Con buona pace del presentismo.

 

 

© Edizioni Archos

Gruppo Crack

© Edizioni Archos. Tutti i diritti riservati.

bottom of page