Recentemente ho letto su Multiplayer.it un articolo che presenta una lista dei principali compositori di musica per videogiochi dagli anni ottanta in poi (https://multiplayer.it/articoli/migliori-compositori-storia-videogiochi.html).
Questa lettura ha scatenato in me ricordi di pomeriggi passati tra Commodore 64 e Amiga 500 in folli partite contro giochi (giochini, come li chiamavano in molti all’epoca) spesso difficili da battere, accompagnati da motivetti fatti apposta per stamparsi in testa dopo il primo ascolto.

Da bambino avevo un bellissimo pianoforte dotato di un sistema a pedali di riproduzione di rulli perforati, una sorta di enorme carillon a propulsione umana (un piano meccanico o pianola, mi dice l’internet). Su questo pianoforte provavo a riprodurre qualcuna di quelle melodie che sentivo tutto il giorno dalle casse del mio televisore (che all’inizio era un vetusto CRT da 14″ in bianco e nero…).
Il motivo musicale che più mi affascinava in quegli anni era senza dubbio quello di Bubble Bobble, che avevo su cassetta per C64:
Verso i suoni interattivi: IMUSE
Rispetto a questi semplici motivi, da svariati anni ormai l’azione sullo schermo viene sottolineata da musiche non solo (ma non necessariamente) compositivamente più complesse e più varie, ma anche capaci di reagire dinamicamente alle azioni del giocatore, alla sua interazione con l’ambiente di gioco e a eventi fuori dal suo controllo (un boss in avvicinamento, lo stato di salute che si deteriora, le munizioni finite…). Lo stesso tipo di interattività lo si trova nel campo degli effetti sonori, capaci di reagire a parametri ambientali quali tipologia di superficie, presenza di spazi aperti o chiusi e molto altro.
Una delle prime soluzioni in questo senso fu il sistema IMUSE, sviluppato nei primi anni ’90 internamente alla allora ancora esistente LucasArts da Michael Land e Peter McConnell. IMUSE (Interactive MUsic Streaming Engine) voleva essere la risposta alle frustrazioni che i due avevano sviluppato durante la lavorazione di The Secret Of Monkey Island; in questa intervista Land mette in luce l’impossibilità di sincronizzare l’azione a schermo con la colonna sonora per via delle limitazioni del motore a loro disposizione.

Monkey Island 2: Le Chuck’s Revenge, pubblicato nel 1991, fu il primo gioco a utilizzare questo nuovo motore, e nella versione rimasterizzata c’è un interessante commento degli autori del gioco in merito proprio a IMUSE. Questo reagisce agli spostamenti del giocatore da un luogo all’altro, con l’uso di segmenti di transizione che permettono all’accompagnamento musicale di seguire continuativamente l’azione senza percepibili interruzioni nella colonna sonora.
Gli audio middleware
Il lavoro di Land e McConnell è sicuramente parente, se non genitore, dei software di musica interattiva oggi utilizzati. Questi, chiamati audio middleware, offrono ai compositori e ai sound designer la possibilità di gestire in autonomia il rapporto tra musica, effetti e azione sullo schermo, senza richiedere l’utilizzo di codice specifico. I più famosi tra questi software sono sicuramente Wwise e FMOD.
Queste piattaforme specializzano l’idea di motori di gioco quali Unreal e Unity, creati per fornire agli sviluppatori una piattaforma tramite la quale sviluppare le loro idee delegando a codice precostituito gli aspetti legati ad esempio alla fisica e al rilevamento delle collisioni.
I compositori possono oggi decidere all’interno del software quali strumenti di una colonna sonora debbano suonare in un certo istante, o ancora gestire filtri, equalizzazioni e riverberi dinamicamente: sarà poi il middleware, una volta istruito su quando e come reagire a determinati parametri di gioco, a occuparsi della integrazione tra audio e motore di gioco.
In questa maniera, scrivendo una colonna sonora e qualche variazione sul suo tema, si possono ottenere accompagnamenti musicali mai ripetitivi tramite playlist generate al volo in maniera casuale o strettamente controllata ed effetti sonori sempre variati e realistici rispetto all’ambiente in cui si trova il giocatore.
Alcune risorse
Molti canali Youtube illustrano il lavoro di compositori e sound designer per videogiochi. Tra quelli che seguo ci sono quello di Akash Thakkar (che al momento in cui scrivo sta realizzando una serie sull’utilizzo di Reaper per i videogiochi), Scott Game Sounds (che ha dei mini-corsi sulla integrazione di Wwise e FMOD in Unity e Unreal), Cujo Sounds e Scruffy.
Voglio condividere questa playlist della Game Developers Conference interamente dedicata a interventi di compositori di audio per il gaming: se avete voglia di lanciarvi in una carriera ricca di potenzialità vi consiglio caldamente di guardare almeno qualcuno dei video, veramente interessanti e ricchi di spunti!
Alla Percorsi Audio (dove mi sono certificato come Pro Tools User) è attivo un percorso di formazione chiamato Sound Design for Game, che include non solo lo studio della integrazione tra Pro Tools, Unity e FMOD, ma anche pratica sul campo in ambito di field recording (riprese audio in esterna per la creazione di effetti sonori). Qui trovate le informazioni.
Sarei felicissimo di sentire la storia di chi di voi si occupa di audio per i videogiochi: se volete condividere esperienze o risorse lasciate un commento!