Spiritualità informatica

L'IA introduce l'imprecisione e l'imperfezione nell'informatica, cambiandola per sempre. Così l'informatica guadagna potenza, ma perde spiritualità.

Probabilmente l’introduzione di questo articolo farà inarcare le sopracciglia a più di qualcuno: sta bene; gli informatici, si sa, sono generalmente persone pragmatiche, abituate a risolvere problemi concreti attraverso l’uso della logica e del pensiero computazionale. Meno male - perché sul loro lavoro si basa la civiltà contemporanea – anche se ogni tanto affiancare il pensiero filosofico a quello computazionale può essere salutare per ritrovarsi, unire i punti del passato e ricalibrare il tiro per il futuro. Anche perché l’informatica, come tutte le scienze applicate, non è fine a sé stessa, ma nasce dalle persone e per le persone, ed è giusto di tanto in tanto vederla dal punto di vista umanistico, filosofico e spirituale.

L’informatica nasce da basi matematiche: a dirla tutta le sue origini sono di gran lunga antecedenti ai calcolatori, e hanno a che fare con il lavoro dei matematici e degli intellettuali dal XVII secolo in avanti. Del resto non bisogna dimenticare che il termine viene ambiguamente usato nella lingua italiana per riferirsi sia alla scienza dei calcolatori che alla scienza dell’informazione, ed è proprio di quest’ultima, quella che studia i principi di rappresentazione ed elaborazione dell’informazione, che affonda le sue radici in un passato decisamente remoto. Se vogliamo fare una sintesi dei due concetti, potremmo dire che l’informatica nel senso più ampio del termine si occupa del trattamento dell’informazione con mezzi automatici.

È proprio la parte matematica che rende così affascinate l’informatica, per il suo rigore e precisione. In un certo senso, è come se i calcolatori ereditassero parte di quella perfezione che solo la matematica, tra tutte le discipline, possiede. I concetti della matematica sono infatti indipendenti dal caos e dal disordine della realtà; sono al contrario puri ed essenziali come le Idee di Platone, il quale ribadiva che qualsiasi triangolo è imperfetto, ma l’Idea con l’iniziale maiuscola di quel triangolo è la sola perfetta. Ebbene, attraverso la matematica i calcolatori sono le uniche entità reali in grado di raggiungere, o almeno avvicinarsi a, quella perfezione.

Poi, evolvendosi, i calcolatori sono diventati meno precisi, almeno in superficie. L’aumento da un lato della potenza computazionale e dall’altro della complessità delle architetture hardware, ha fatto sì che fosse inopportuno programmare il computer in linguaggio macchina; di conseguenza i linguaggi e le tecniche di programmazione sono diventati sempre più articolati e complessi, introducendo incertezza e variabilità in superficie, ma senza andare a scalfire i principi cardine della scienza dell’informazione. Se pensiamo poi alla scienza dei calcolatori, nel tempo la necessità di aumentare le prestazioni è stata soddisfatta anche introducendo tecniche a livello hardware e di microcodice in grado di aumentare la velocità di esecuzione basandosi su tecniche predittive.

In altre parole, il bug è dietro l’angolo, pertanto è impossibile avere la certezza che un qualsiasi software si comporti sempre in modo perfetto ed affidabile. Si tratta di una legge vecchia come l’informatica, ma che finora non è mai stata confutata. Possiamo dunque affermare che il calcolatore interpreta in modo “povero” la perfezione della matematica, perché è pur sempre un oggetto fisico realizzato dall’uomo e come tale non può raggiungere quel livello di astrattezza tipico di una disciplina pura: se abbiamo a che fare con materia fisica, nulla può essere veramente perfetto. Eppure il calcolatore, soprattutto quello elettronico, è quanto più di più vicino a quell’idea.

Questa ragionevole certezza nella perfezione quasi mistica tipica dei sistemi di elaborazione automatica dell’informazione va però sempre più scontrandosi con la diffusione dei modelli di machine learning e di intelligenza artificiale in genere. Lo sviluppo di questi ultimi ha due conseguenze. La prima è che è sempre più difficile, oramai addirittura impossibile, sapere esattamente cosa accade a basso livello sull’hardware o negli strati inferiori del software. Questo fenomeno è reale da molti anni, ma oggi viene amplificato da questi modelli: nessuno sa veramente come funziona un’intelligenza artificiale nei suoi meccanismi interni, anche perché in un certo senso con l’apprendimento automatico è come se la macchina si programmasse da sola. La seconda conseguenza è che non sappiamo fino a che punto possiamo ritenere affidabili i modelli: non avendo modo di verificare nel dettaglio il loro funzionamento è impossibile giudicarne la bontà se non dai loro risultati tangibili; in pratica non possiamo sapere a priori con ragionevole certezza se l’elaborazione sarà corretta, ma solo a posteriori una volta esaminati i risultati.

Ci sono diverse considerazioni da fare su questi concetti. La prima è relativa alla potenza dell’intelligenza artificiale: non c’è dubbio sul fatto che questi modelli siano in grado di fare cose inimmaginabili per un software scritto a mano. Anzi, l’intero concetto di programmazione viene messo in discussione, perché, se la macchina è in grado di imparare da sola, diminuisce la necessità di programmarla; semmai si rende maggiormente necessario supervisionarla, il che per certi versi è anche più complesso. L’altra considerazione, strettamente collegata alla precedente, è legata all’affidabilità dei risultati dell’elaborazione, che, è ormai evidente, non è paragonabile a quella dei programmi tradizionali. Eppure la maggiore potenza in qualche modo giustifica la minore affidabilità, perché i risultati sono incredibili, e lo vediamo sempre di più nelle applicazioni reali: non si sta parlando di futuro, ma di presente.

Nulla di quanto sta accedendo da questo punto di vista nell’informatica è negativo; al contrario credo che le prospettive per l’evoluzione futura del settore siano entusiasmanti. Ma non posso fare a meno di constatare che la direzione attuale, che punta verso un sempre maggior impiego dell’intelligenza artificiale, è un compromesso. Magari un buon compromesso, che ha perfettamente senso sul piano logico - perché permette di fare cose altrimenti impossibili - ma pur sempre un compromesso, tra la potenza e la precisione.

La domanda da farsi è se siamo disposti a barattare un certo grado di precisione in favore di un certo grado di potenza. La risposta logica è sì, ha perfettamente senso, ma è innegabile che il prezzo da pagare sia una perdita che io chiamerei di spiritualità. Anche se a livello hardware non cambia nulla sul piano matematico, l’informatica a partire dagli strati più alti del software e via via scendendo sempre più in basso si sta gradualmente discostando da quella perfezione tipica delle Idee platoniche o della matematica per inseguire fini meno spirituali ma certamente più utili. Nel bene e nel male.

Indietro
Indietro

Fate i backup, o saremo una generazione dimenticata

Avanti
Avanti

Il 2025 potrebbe essere l’anno degli smartphone “semi-rugged”