Siamo troppo abitudinari
Se vogliamo che la tecnologia faccia veramente un nuovo salto di qualità, dobbiamo imparare a svincolarci dal passato e iniziare a pensare fuori dagli schemi.
Inventare significa usare nuove idee o conoscenze per trovare soluzioni che risolvono problemi; innovare significa trasformare un’invenzione in qualcosa di economicamente utile.
Di invenzioni nel campo dell’informatica ce ne sono sempre, per fortuna, tuttavia troppo spesso ci dimentichiamo che ciò che ha reso veramente utile e onnipresente l’informatica sono state le interfacce grafiche. Senza la GUI si ridurrebbe astronomicamente il numero di esseri umani potenzialmente in grado di usare un computer, perciò possiamo dire che l’interfaccia grafica sia stata alla base della rivoluzione del personal computer e che abbia cambiato per sempre il volto della società. Questo insegna che la chiave per l’utilità di un computer non è tanto il computer in sé, ma il modo in cui questo è in grado di rapportarsi con un essere umano.
Ebbene, da quando quarant’anni fa fecero comparsa sul mercato le prime interfacce grafiche - inventate allo Xerox PARC e commercializzate prima con il Macintosh e poi con Windows - non ci sono più state rivoluzioni di pari portata nell’interazione tra un uomo e un computer. Parlo di rivoluzioni non per niente, visto che le innovazioni ci sono state eccome. Del resto, l’idea iniziale era piuttosto semplice quanto geniale: se un personal computer viene usato da una persona che è abituata a sedersi alla scrivania per svolgere il suo lavoro, quale miglior metafora di quella di una scrivania con tanto di cartelle, documenti e cestino per rendere facile e comprensibile l’utilizzo di una macchina computazionale da parte di un potenziale utente? Da allora in poi la metafora della scrivania è diventata talmente radicata nella mente delle persone che nessuno ha più pensato, almeno concretamente, di sostituirla con una nuova metafora, magari più utile e più aggiornata. Così oggi nessuno è in grado di immaginare un PC che interagisca con l’utente tramite un’interfaccia diversa dalla simulazione di una scrivania, che, ricordiamo, è solo un modo fittizio per permettere all’utente di muoversi in un sistema complesso.
Siamo stati costretti a immaginare un paradigma diverso solo quando ormai era evidente che quello originale non si adattava più al mondo contemporaneo, in particolare ai dispositivi mobili. Quando nacquero gli smartphone moderni - di cui il capostipite è ovviamente l’iPhone - fu subito evidente che la metafora della scrivania non poteva essere replicata sul piccolo display di un cellulare: serviva un tipo diverso di interazione, che mettesse al centro le applicazioni e non più le cartelle e i documenti. È chiaro che per quanto non sia stato semplice immaginare un sistema alternativo di interazione, le interfacce dei dispositivi mobili restano sempre una metafora molto simile a quella della scrivania, con la differenza che ora questa è popolata di applicazioni e non più di documenti.
Una rivoluzione copernicana questa che comunque ha auto un impatto notevole sulla società: sono sicuro che anche tra i miei lettori qualcuno conoscerà persone che nemmeno hanno un computer a casa e che sono in grado di interagire solo con lo smartphone, usando le dita al posto del puntatore, e cercando le applicazioni al posto dei documenti. Il fatto è che questa metafora è persino più semplice di quella della scrivania, ma questa semplicità non è mai diventata sinonimo di potenza, semmai di banalizzazione. Le interfacce dei moderni dispositivi mobili, smartphone in primis, non sono altro che la versione povera, e per questo meno potente, della originaria e geniale intuizione della scrivania.
È incredibile, ma in un mondo dinamico e innovativo come quello dell’informatica siamo rimasti per quarant’anni bloccati su un’idea che nasceva per essere comprensibile a chi non aveva mai visto un computer in vita sua; ora siamo arrivati al paradosso che quell’interfaccia è ancora usata da chi passa molte più ore della sua giornata sulla scrivania di un computer che su una fisica. D’altra parte, nessuno sa se affettivamente la metafora della scrivania sia veramente la migliore, perché nessuno ha mai pensato di cambiarla. Chissà, magari l’utente moderno non ha poi tutta questa necessità di metafore tratte dal mondo reale per essere produttivo, abituato com’è alle interfacce basate su simboli astratti delle applicazioni.
Siamo ora nel 2024, ed esattamente quarant’anni dopo il primo Macintosh e diciassette anni dopo il primo iPhone, abbiamo la possibilità di rivoluzionare il modo di pensare l’interazione tra un computer e un essere umano con i visori e gli occhiali per la realtà aumentata. Un campo questo dove finora le direzioni sono state due: portare le finestre nel mondo reale e a dimensione reale con un visore, oppure sovrapporre poche informazioni bidimensionali alla realtà con degli occhiali.
Purtroppo, nessuna di queste due idee è particolarmente brillante: la prima perché sovrapporre le finestre al mondo reale è il modo più pigro possibile di implementare una nuova tecnologia, come dire “abbiamo un hardware pazzesco e, sai che c’è, ci mettiamo su un sistema operativo”; la seconda perché si tratta di una iper-semplificazione del concetto di computer, di scarsa utilità per la gran parte delle persone.
E la prova che questo approccio non funziona non è neppure difficile da trovare, visto che basta guardare alla mole di visori per la realtà mista e aumentata che si sono succeduti negli anni e che hanno fallito miseramente.
Uno su tutti l’Hololens di Microsoft, che avrebbe dovuto rivoluzionare, almeno nei piani dell’azienda, la produttività e la collaborazione, mentre di fatto è stato relegato ad alcuni utilizzi molto specifici e settoriali, troppo di nicchia per garantire un futuro al prodotto. E se anche guardiamo ai device di maggior successo della categoria, come i Quest di Meta, notiamo che si tratta di prodotti che trovano nel gioco immersivo la loro ragione d’essere, ma che al di fuori di quel ristretto ambito sono alquanto scomodi e di limitata utilità.
L’unica interfaccia che ha voluto osare leggermente di più - se vogliamo - è quella del Vision Pro di Apple, che tuttavia resta legata all’assurdo concetto delle finestre bidimensionali che fluttuano nello spazio, e delle applicazioni come base della schermata iniziale.
Per quanto geniale fosse ai tempi l’idea delle finestre, è evidente che si tratta di un’idea che mal si adatta al concetto di visore, dove la realtà e il digitale si fondono insieme. Ora, poiché la realtà si estende su tre dimensioni sarebbe logico che anche l’interfaccia grafica e le applicazioni facessero altrettanto. Non solo: anche i contenuti dovrebbero essere tridimensionali. Invece, per richiamare il titolo dell’articolo, siamo troppo abitudinari, e quindi abbiamo a disposizione questa potente tecnologia e qual è la prima cosa che facciamo? Ci mettiamo finestre e contenuti bidimensionali: non riusciamo dunque a staccarci dalle vecchie abitudini, continuiamo a ricaderci dentro, e dopo quarant’anni di interfacce bidimensionali legate a schermi bidimensionali, ci vorrà tempo perché le persone comprendano le reali potenzialità di questo nuovo mezzo, così come accadde nei primi anni delle interfacce grafiche, quando i primi contenuti disponibili sui computer erano copie di documenti che altrimenti sarebbero stati cartacei, e film che altrimenti sarebbero stati messi su cassetta. C’è voluto tempo prima che le persone trovassero modi veramente creativi e unici per sfruttare appieno le potenzialità delle interfacce grafiche bidimensionali, e lo stesso probabilmente accadrà per quelle tridimensionali, almeno quando qualcuno deciderà di uscire fuori dagli schemi e di anticipare il futuro. Come disse il campione di hockey Wayne Douglas Gretzky “Bisogna pattinare dove si troverà il disco, non dove si trovava”.