Rock e intelligenza artificiale: quali prospettive di utilizzo?
Un po’ per sfida e un po’ per curiosità, Steven Wilson dei Porcupine Tree ha scritto una canzone di Natale con ChatGPT. Dopo il successo dell’operazione “Now and Then” dei Beatles, nella nuova puntata di Soundcheck esploriamo le possibilità di applicazione nell’AI nel mondo di derivazione rock
Input: scrivi una canzone di Natale nello stile di Steven Wilson, senza menzionare il Natale ed esprimendo un senso di freddo e solitudine. Sembra l’avvio di un meme AI-generated realizzato da una pagina social parodistica (magari “di settore”, come Prog Snob), e invece si tratta di una release semiufficiale. December Skies, il nuovo singolo di Steven Wilson, è disponibile su YouTube (ma non sulle piattaforme di streaming) dal 14 dicembre. E, dopo l’enorme successo di Now and Then dei Beatles, segna un nuovo capitolo nel difficile rapporto fra rock e intelligenza artificiale.
Per qualche motivo proprio il Natale si rivela terreno prediletto di applicazione – fra il serio e il faceto – della nuova tecnologia. Mutatis mutandis, vi abbiamo già raccontato su Billboard Italia un progetto per certi versi molto ambizioso come Gerry Christmas. Lì – cavalcando l’ondata di meme che lo ha visto protagonista – Gerry Scotti ha “reinterpretato” i grandi classici prestando la sua voce all’intelligenza artificiale. Ma dietro la patina da meme l’operazione aveva in realtà tutto l’aspetto prova generale di uso dell’AI in musica su più larga scala.
Proprio come nel caso di Steven Wilson, che con December Skies – canzoncina dal testo un po’ stucchevole ma comunque credibile – compie un passo in avanti nell’esplorazione delle possibilità di applicazione dell’intelligenza artificiale al songwriting e alla produzione di canzoni rock. Perché, in un futuro neanche molto lontano, sarà sempre più facile vedere crediti come “Music by Steven Wilson, lyrics by Artificial Intelligence”.
Steven Wilson racconta December Skies
«Un amico mi ha chiesto perché non avessi mai fatto una canzone di Natale», racconta Wilson nella caption del video di December Skies su YouTube. «Ho ribattuto dicendo che non è proprio una cosa da me, inoltre non penso di avere la capacità di scrivere testi adeguatamente natalizi. “Nessun problema”, ha detto, “faremo in modo che ChatGPT lo faccia per te!”. Dopodiché ha chiesto all’intelligenza artificiale di generare un testo natalizio nello stile di Steven Wilson. Sono rimasto stupito da quanto sia stato istantaneo e facile guidare l’AI: “non menzionare espressamente il Natale”, “dai una maggiore sensazione di solitudine”, eccetera».
Continua: «Non sono ancora del tutto sicuro di cosa penso dell’intelligenza artificiale. La reazione istintiva è quella di considerarla una minaccia per un musicista come me. Ma chiaramente non scomparirà. Quindi questo è il mio esperimento per provare ad accoglierla e usarla come uno strumento nel processo creativo. E ovviamente anche per divertirmi un po’ facendo qualcosa che normalmente non avrei mai pensato di fare, la classica canzone natalizia. […] Mi chiedo cosa ne penserà la gente. Mi chiedo cosa ne penso io».
Sempre in tema di intelligenza artificiale, anche il video di December Skies è stato generato da AI. «Si basa su immagini tratte da alcuni dei miei video precedenti, poi inserite in fondali 2D e 3D», dice Wilson.
Le possibilità dell’AI
«Potrà sentirsi minacciato dall’intelligenza artificiale solo chi non si confronterà con questi strumenti, anche solo per superare soglie qualitative e quantitative di produzione. In alcuni casi saranno rivelatori di nuove forme di espressione, in altri probabilmente sostituiranno altre forme ormai giunte a un certo grado di saturazione». Parole di Paolo Bigazzi Alderigi, editore musicale e docente presso il SAE Institute di Milano che abbiamo recentemente interpellato nell’ambito di un’inchiesta sullo stato dell’arte del machine learning.
«Il mercato della musica è uno dei primi ad essere attraversati in modo a volte dirompente dalle nuove tecnologie», continuava Bigazzi Alderigi. «In questi ultimi vent’anni si è misurato in particolare con lo streaming, che ha reso necessario lo sviluppo di strumenti sempre più accurati. Ad esempio è sorta l’esigenza di dotarsi di strumenti di catalogazione, ricerca e individuazione di brani all’interno di cataloghi musicali attraverso le tecnologie definite come MIR (Music Information Retrieval), in grado di profilare un brano musicale per genere, mood emozionale, contenuto energetico e altri parametri».
In termini di opportunità, per Bigazzi Alderigi sarà soprattutto interessante indagare con l’AI «le possibilità di modulazione del suono e del controllo dinamico dei suoi parametri per ottenere nuovi timbri sonori. Ricordiamo che si sono definiti interi generi musicali (come la acid house a partire dal sintetizzatore Roland TB-303) e sono emerse caratteristiche distintive (come l’autotune) la cui implementazione ha generato nel tempo critiche ma anche utilizzi virtuosi».
Rock e intelligenza artificiale
Ma come applicare questi stimoli a un mondo rock che, più di altri generi, è refrattario all’automatizzazione della creazione musicale? Le prime risposte sono quelle che già abbiamo sotto gli occhi.
La prima è la “operazione Now and Then”: il recupero di una demo di bassa qualità con conseguente “restauro” ad opera dell’AI e completamento ad opera di musicisti e produttori in carne e ossa. Lo sottolineava – con una punta di malizia – lo stesso Gerry Scotti nell’intervista summenzionata: «Adesso che si conoscono queste possibilità, sai quanti nastrini troveranno di Elvis, di George Michael, di Michael Jackson…».
A parte il fatto che in questo caso parliamo di un uso non generativo dell’intelligenza artificiale, progetti del genere saranno tanto più credibili quanto più coerenti con la storia e la visione dell’artista defunto. Ed è solo questione di tempo prima di vedere concretizzarsi la profezia di Scotti, magari proprio con uno o più di quei nomi storici.
La seconda è quella di Steven Wilson con December Skies: scrittura del testo di una canzone (o, perché no, di un intero album). Più verosimilmente – anche per una banale questione di copyright da reclamare – gli artisti opteranno per un approccio ibrido. Ovvero la rilavorazione di un primo “canovaccio” steso dall’intelligenza artificiale. Come del resto già avviene spesso nel mondo pop nel rapporto fra autori e interpreti, laddove i secondi intervengono per personalizzare quanto scritto dai primi (e per ottenere punti di copyright, ça va sans dire).
Certo, i grandi poeti e poetesse del rock continueranno ad attingere alla loro vena creativa per scrivere canzoni. Ma la storia del rock è stata fatta anche da canzoni semplici e ripetitive, con testi perfettamente alla portata dell’intelligenza artificiale odierna.
E il futuro?
Sappiamo bene quanto la cultura rock – prima ancora che i suoi artisti – sia legata a un’idea di artigianalità della musica, come dicevamo. Né il pubblico rock né artisti e band sarebbero mai disposti a demandare in toto la creazione musicale all’intelligenza artificiale.
Quello del rimpiazzo della creatività umana nel caso del rock è un rischio di fatto inesistente. Al limite assisteremo al proliferare di musica funzionale dal sapore rock (jingle pubblicitari, parti di colonne sonore dei film) generata da intelligenza artificiale. Ma difficilmente ciò intaccherà il rapporto fra pubblico e artisti.
Facendo un piccolo sforzo di immaginazione, l’intelligenza artificiale nel rock diventerà un semplice strumento nelle mani dei produttori per ottenere determinate caratteristiche sonore in modo più facile e veloce. Non ne saranno cannibalizzati, così come l’avvento della drum machine non ha causato l’estinzione dei batteristi.
Le applicazioni nell’ambito dell’arrangiamento sono evidenti. Pensiamo a quelle band che fondano gran parte del loro sound su un “pastiche” comprendente tanti strumenti e colori diversi, come i The 1975. Anziché mobilitare un arrangiatore e un’orchestra da camera, canzoni come Part of the Band potranno beneficiare di sezioni di archi (ma anche di fiati o di percussioni) generate da AI in un modo che non intaccherebbe la credibilità complessiva della musica proposta.
Inoltre nel mondo rock, in maniera certamente più nascosta che in altri generi, l’uso di sample ha scritto pagine notevoli del genere. Pensiamo ai suoni percussivi e melodici campionati all’inizio di Silly Love Songs di Paul McCartney o al celebre sussurro ripetuto in 1979 degli Smashing Pumpkins, così discreto eppure così memorabile. Questo è un altro ambito in cui l’intelligenza artificiale potrà fornire ai produttori soluzioni pressoché immediate e funzionali all’economia delle canzoni, anziché registrarli in modo analogico o scaricarli da una sound library.
Infine, rock e intelligenza artificiale potrebbero trovare un terreno comune – come lasciava intendere Paolo Bigazzi Alderigi – nel sound design e nel mixaggio. Già oggi i vari software di registrazione consentono di raggiungere risultati di alto livello con plugin che emulano pedali di chitarra o i timbri di diversi amplificatori, senza dover spendere una fortuna in strumentazione ed effettistica analogica. Domani assisteremo a un ulteriore shift: anche chi non avrà competenze tecniche specifiche potrà ottenere standard qualitativi sempre più vicini a “quelli di una volta”. Una nuova ondata di democratizzazione della produzione musicale, a voler guardare il bicchiere mezzo pieno.