Ultimamente è molto interessante vedere come sia gli utenti sia gli addetti ai lavori, folgorati da quel video di Star Citizen in cui si mostra la generazione procedurale delle città, siano tornati a parlare di tecnica e innovazione nei videogiochi.
Un silenzio durato veramente a lungo: un problema, a dire il vero, che come analizzato da Plinious si riverbera anche sulla qualità dei prodotti che vengono commercializzati. Se si pretende di meno, si avrà per forza di meno.
È chiaro ormai che osservando questa generazione procedurale delle città si sia colto qualcosa di nuovo, di innovativo. Uno stimolo verso il progresso tecnico che ultimamente è stato lasciato molto da parte.
Tralasciando le cause, alcune delle quali sicuramente da imputare alla scarsa potenza computazionale delle console che però fanno la gran parte del mercato, è evidente che negli ultimi anni non si è mai vista una vera e propria rivoluzione tecnica nel videogioco, se non attraverso pochi sporadici esempi che non sono mai stati lodati a sufficienza e quindi rischiano tutt’oggi di tornare nel dimenticatoio quando invece avrebbero bisogno di essere celebrati e resi lo standard sul quale basare i titoli futuri.
Vediamo di capire meglio che cosa si può intendere per “rivoluzione tecnica”.
Ogni prodotto videoludico ha al suo interno una doppia natura, potremmo dire. Come del resto esemplificato in modo geniale nel gioco Game Dev Tycoon, ogni prodotto ha sostanzialmente due anime: l’arte e la tecnica. Soltanto attraverso il connubio di esse è possibile raggiungere un ottimo risultato.
Capita a volte, nel corso degli anni, che un dato prodotto sviluppi in modo innovativo una certa area tecnica e la unisca al gameplay, riuscendo in tal modo a coniugare le due parti e a rivoluzionare quello specifico settore, facendo sì che non si possa più tornare indietro dall’innovazione raggiunta. È questo ciò che intendo per “rivoluzione tecnica”.
Prima di concentrarci su quelli che dovrebbero essere i settori di rivoluzione nei prossimi anni, nella prima parte di questo speciale vediamo alcuni esempi del passato.
1) La tecnica delle ombre in tempo reale
Tralasciando elementi troppo complessi tipo la realizzazione della prima persona attuata da Doom o la gestione delle luci colorate di Quake, o dell’illuminazione di Unreal, la prima delle rivoluzioni tecniche vere e proprie degli ultimi vent’anni si è verificata con l’avvento delle ombre in tempo reale.
Per ombra in tempo reale si intende l’ombra dell’oggetto non precalcolata ma computata e aggiornata continuamente a seconda dello spostamento della fonte di luce. Ciò si contrappone alle ombre statiche, cioè quelle che non vengono modificate anche se cambia la fonte di luce, oppure che non possono essere modificate proprio perchè non c’è modo di cambiare la posizione o l’intensità della fonte di luce stessa. Se la fonte di luce si avvicinerà all’oggetto, l’ombra di esso si farà più grande; se si allontanerà, si farà più piccola; se si girerà attorno, l’ombra girerà con la fonte di luce, nella direzione opposta.
Questo non vuol dire che non possano esserci effetti di luce che illuminano le zone: ad esempio, sparare con un’arma da fuoco o andare in giro con una torcia possono illuminare i dintorni senza però che vengano create delle ombre.
È importante, come già detto prima, rimarcare che la tecnica fine a se stessa non serve a nulla: occorre inserirla in un contesto di gioco. Darle cioè una funzione a livello di gameplay.
Prima della fine degli anni ’90 la tecnologia non permetteva un’efficace gestione delle ombre in tempo reale, semplicemente perchè il potere computazionale delle macchine di allora era insufficiente. Servirono le prime schede grafiche già affermate perchè si potesse pensare di inserire questa feature nei prodotti commerciali.
Il primo gioco a sfruttare la tecnologia delle ombre in tempo reale fu il quasi sconosciuto Nocturne, survival horror di Terminal Reality del 1999, in cui le ombre in tempo reale venivano sfruttate per dare una sensazione di inquietudine e paura: era d’altra parte un gioco horror, e la tecnica all’ultimo grido dell’epoca fu sfruttata per dare un qualcosa in più al gameplay.
Nel corso degli anni a venire, le ombre in tempo reale si diffusero capillarmente in tutti i generi di videogiochi, e furono migliorate nella loro resa, prima calcolandole meglio (viene in mente a tale proposito il famoso algoritmo Carmack’s Reverse, utilizzato per Doom 3 e ancora oggi studiato nelle università), poi sfumandone i contorni e rendendole più realistiche.
Anche Doom 3 utilizzava quindi le ombre in tempo reale per una questione di atmosfera. Un esempio molto più legato al gameplay può ritrovarsi in quegli anni in nel terzo capitolo di Thief, Deadly Shadows (il cui nome è già tutto un programma), poichè l’ombra generata da fonti mobili poteva essere sfruttata per nascondersi: il perfetto utilizzo della tecnologia, e il connubio tecnica-gameplay di cui si è parlato.
È parzialmente triste notare come ancora oggi, a distanza di quasi vent’anni, le ombre in tempo reale non siano sempre presenti nei videogiochi. L’occhio dell’utente si è abituato a molti orpelli grafici di livello inferiore ma più appariscenti, come i colori sgargianti tanto in voga oggigiorno, aiutati da un post-processing esagerato e da shader di dubbio gusto. Calcolare con successo un’ombra in tempo reale richiede una certa potenza prestazionale, quindi è comprensibile che gli sviluppatori vogliano limitare al massimo questa feature per questioni di ottimizzazione.
Molto male, però, perchè nel mondo reale le ombre non sono precalcolate (non vivendo in Matrix) e l’assenza di esse è già, almeno per me, un bollino rosso sull’immedesimazione. Si pensi ad esempio a Skyrim, Fallout, Oblivion e a tutti i giochi Bethesda col Gamebyro engine: lì le ombre in tempo reale possono esistere, e in taluni casi sono sfruttate, ma nella stragrande maggioranza delle circostanze la fonte di luce è statica e non proietta alcuna ombra (basta aprire il Creation Kit dei vari prodotti per rendersi conto che esistono due tipi diversi di fonti di luce, l’una che genera ombre, l’altra che genera una mera illuminazione).
Riprendendo le parole di Plinious, “dobbiamo pretendere di più” dalla gestione delle luci e delle ombre anche nei prodotti di oggi.
2) La tecnica della fisica
Nel mondo vero “la fisica” e le sue leggi gestiscono ogni cosa: non solo dà origine all’universo, ma determina il movimento degli oggetti e le loro proprietà, da cui tutto consegue. Nei videogiochi, per fisica si intende tutto ciò che ha a che fare con il comportamento dei modelli rapportato al loro movimento e alla loro interazione, il tutto in base a delle “leggi” che sono quelle create dagli sviluppatori.
Per dirla con parole più semplici: nel mondo dei videogiochi è possibile far cadere una cassa dotata di massa uguale più o meno rovinosamente a seconda degli algoritmi fisici, o farla rimbalzare come se fosse di gomma anche se essa è di piombo.
Tre sono i prodotti con una gestione estremamente embrionale della fisica che vengono in mente tra la fine degli anni ’90 e l’inizio degli anni 2000: Unreal e Tomb Raider da una parte; Soldier of Fortune 2 da un’altra. Unreal e Tomb Raider consentirono una gestione basilare del movimento di alcuni oggetti all’interno della mappa di gioco, per lo più con la funzione di superare semplici enigmi. Esempio tipico poteva essere quello di trascinare una cassa nei pressi di un ostacolo per poi saltare sopra la cassa e da essa sopra l’ostacolo, oltrepassandolo.
Soldier of Fortune 2, per cui il tempo è stato meno magnanimo che per gli altri due titoli, fu il primo ad avere un embrionale sistema di ragdoll. Il ragdoll, in italiano “bambola di pezza”, è il sistema che permette ai corpi di adagiarsi sul terreno e sugli oggetti senza compenetrarli.
Prima di Soldier of Fortune 2 se si fosse ucciso un nemico di fianco ad un muro, il suo cadavere avrebbe compenetrato il muro stesso, perchè l’animazione di morte e di trasformazione in cadavere, oggetto inanimato, era fissa e non prevedeva di incontrare ostacoli lungo il suo dipanarsi. Con il ragdoll, che in Soldier of Fortune 2 per la verità era scriptato e non calcolato in tempo reale a partire da valori fisici delle giunture dei modelli dei personaggi, i cadaveri dei nemici non potevano compenetrare il muro. Fu un passo in avanti notevole.
La vera rivoluzione però avvenne nel 2004 con Half Life 2 grazie all‘Havok, il motore fisico tuttora utilizzato nei titoli Valve come Counter-Strike: Global Offensive.
Questo permise di sottoporre alle leggi della fisica tradizionale tutti i modelli liberi nello scenario. Così non solo essi cadevano o rimbalzavano, o galleggiavano se buttati in acqua o affondavano se troppo pesanti, ma il gameplay dell’intero titolo subiva una rivoluzione.
Attraverso l’uso sapientissimo della Gravity Gun, una delle armi più “importanti” di tutti i tempi per il medium videoludico, il giocatore poteva interagire con le leggi della fisica che prima di allora gli erano al massimo state fatte intuire. Ora egli ci poteva giocare: risolvere enigmi, uccidere i nemici lanciando oggetti contro di loro, costruire attraverso i mod intere strutture (viene in mente il Garry’s Mod, che oggi è meno conosciuto ma ebbe un successo planetario proprio grazie alla sua libertà nell’interazione con la fisica).
Una cosa fu certa, da Half Life 2 in poi: non si sarebbe mai più potuti tornare indietro da questo punto di vista, e ogni prodotto altrettanto degno che sarebbe seguito non avrebbe potuto rinunciare ad una simulazione complessa delle leggi fisiche nel mondo di gioco. Max Payne 2: The Fall of Max Payne, uscito poco dopo, si situa esattamente in quel filone ed è l’esempio tipico di un’imitazione ben riuscita della fisica di Half Life 2. Ogni livello contiene centinaia di modelli che possono cadere e dare quel tocco scenico in più alle sparatorie: casse, barili, luci, soprammobili e cose di questo tipo si spaccano e rotolano in giro colpiti dai proiettili o divelti dalle granate.
3) La tecnica dell’illuminazione al di là delle ombre
Mettere una semplice ombra ad un oggetto non basta a creare una scena ben illuminata. Di questo ci si rese conto a ridosso del 2003/2004, quando le ombre in tempo reale erano al loro apice e stressavano perfino in maniera eccessiva le povere schede video di allora.
Iniziò dunque un lento processo, che ancora oggi non può dirsi del tutto compiuto, attraverso il quale si cercò di rendere più realistica l’illuminazione globale in senso lato. Non solo le ombre dunque, ma anche effetti ambientali come la rifrazione, i riflessi, l’illuminazione generale che proviene da un singolo raggio di luce, e i famosi effetti di HDR, o i godrays e gli shader in generale.
Perfino Caravaggio insegna che una scena guadagna infinitamente di valore se accompagnata da un’illuminazione non solo realistica ma anche evocativa. “Giocare” con la luce permette a registi e sviluppatori, a parità di grafica, texture e modelli, di realizzare scene dal realismo e dalla bellezza molto diverse.
Iniziarono quindi a fioccare quelli che oggi sono definiti effetti di post-processing, con un termine improprio: soltanto una parte di essi infatti sono definibili così. Se l’effetto è una sorta di filtro con il quale si vede il mondo di gioco, allora esso è un post-processing; se invece cambia profondamente la natura dell’immagine al di là della sua visione, allora non lo è.
Un esempio può aiutare a capire: il filtro caldo/freddo che cambia i colori in più tendenti al blu o più tendenti al rosso è a tutti gli effetti un sistema di post-processing, perchè lavora (processing) in seguito (post) su un’immagine già costituita in tutte le sue forme. Un altro esempio è il motion blur tipico dei giochi di guida o il depth of field che sfuma gli oggetti lontani. Al contrario, effetti come i godrays, i raggi di luce volumetrici che provengono dalle fonti luminose o dal Sole, seppure molto spesso siano inseriti nella categoria degli effetti di post-processing non lo sono affatto. Essi infatti agiscono sul mondo di gioco nella sua tridimensionalità e nella sua renderizzazione in senso assoluto: non sono un filtro applicato alla telecamera con cui il giocatore vede il mondo virtuale.
Chiarita questa preliminare distinzione, storicamente possiamo rilevare Just Cause come uno dei primi titoli in cui shader, illuminazione globale, godrays e un bloom un po’ esagerato si unirono a creare un effetto “da videogioco moderno” che precedentemente non si vedeva altrettanto. Un’analogia col cinema calza a pennello: per un occhio vagamente attento è possibile immediatamente capire in che anni, più o meno, è stato girato un film: la grana della pellicola, i suoi colori, lo stile generale dell’immagine prima ancora che del film dimostrano spesso il tempo in cui esso è stato realizzato. La stessa cosa può rilevarsi nei videogiochi.
Tuttavia, seppur mettesse in campo delle innovazioni tecniche notevoli, Just Cause non riuscì ad unire bene tale personalità al gameplay.
Perchè ciò avvenisse si è dovuto aspettare The Elder Scrolls IV: Oblivion (e Fallout 3), che riuscirono a dare un tocco artistico all’uso dell’HDR (memorabili le scene di uscita dalla prigione imperiale su Oblivion e dalla Vault in Fallout 3). In seguito, Arma e la sua gestione dell’illuminazione, unita ai grandi spazi, diede luogo ad un uso tattico dell’illuminazione: ad esempio un bersaglio in fiamme è visibile da molti chilometri, tradendo la propria posizione o quella del nemico.
A questo proposito S.T.A.L.K.E.R.: Clear Sky, il secondo capitolo della saga di GSC Game World, resta oggi uno dei giochi “meglio illuminati” di tutti i tempi: l’utilizzo sapientissimo di godrays particolarmente “densi”, a simboleggiare un’atmosfera polverosa, sporca e arrugginita come si confà a Chernobyl e dintorni, non ha ancora un vero rivale.
È chiaro che in un open world l’idea di un’illuminazione ben fatta a livello generale è molto più difficile da inserire all’interno di una cornice di gameplay, ma quando si unisce al gioco e dà un significato alle situazioni che si verificano (la libertà di uscita dalla prigione come luce abbagliante in Oblivion e Fallout 3; la paura e la tossicità in S.T.A.L.K.E.R.; la cautela su ARMA) essa ha un valore tale e quale alla narrazione e alle texture, se non addirittura superiore.
Con questi tre esempi macroscopici provenienti dal passato si conclude la prima parte di questo speciale.
Nella sua seconda metà, esso si dedicherà all’esplorazione delle feature più recenti di innovazione tecnica, che in questi anni e nei prossimi verranno limate e faranno parte del bagaglio generale dei videogiochi così come oggi lo fanno la fisica o le ombre in tempo reale: queste sono la simulazione dei fluidi, la generazione procedurale degli ambienti e l’interazione e la distruttibilità ambientale.
Ad Asczor piace videogiocare e soprattutto videogiocare bene. I giochi per lui vanno fruiti sfruttandoli fino in fondo al meglio delle proprie capacità. È per questo che Asczor s’incazza, e non poco, quando i giochi non rispettano i suoi standard di qualità. Però ha sempre le sue buone ragioni per farlo e, al contrario, non manca mai di lodare i giochi meritevoli. Peccato che siano davvero pochi.
Lascia una risposta