Pin It

L’Intelligenza Artificiale sta rivoluzionando diversi settori artistici e la musica non fa eccezione. Attualmente è possibile infatti creare strumenti che generano automaticamente brani musicali o singole tracce, ma la maggior parte di essi è destinata a professionisti del settore, come musicisti o produttori. Ora, un gruppo di ricercatori della LG AI Research ha sviluppato un nuovo sistema che permette a chiunque di trasformare facilmente le proprie idee in musica. Questo sistema, come si legge su arXiv, combina un modello matematico avanzato chiamato trasformatore autoregressivo con un’interfaccia facile da usare.

Un trasformatore autoregressivo è un tipo di modello matematico basato su reti neurali progettato per lavorare con sequenze di dati – come le note musicali – trasformando o modificando una sequenza di input in una sequenza di output. Il termine autoregressivo, in particolare, significa che il modello genera i dati un elemento alla volta usando quelli precedenti per calcolare il successivo. In altre parole, quando il sistema crea una nota musicale, guarda alle note precedenti per “prevedere” quale dovrebbe essere la successiva, in modo simile a quando si ascolta una melodia e ci si aspettiamo naturalmente quale sarà la prossima nota in base a quelle già sentite.

Per addestrare questo modello, i ricercatori hanno usato due vasti database di file MIDI (Lakh MIDI e MetaMIDI), che contenevano oltre 400mila tracce musicali. I file MIDI non sono musica nel senso tradizionale, ma piuttosto sono una rappresentazione digitale di una traccia musicale: descrivono quali note vengono suonate, per quanto tempo, a quale velocità, e così via. Questi file sono stati poi convertiti in un formato speciale chiamato REMI (REpresentation of MIusic) che  scompone la musica in una sequenza di eventi (come il tono, la durata e la dinamica delle note) trasformando queste informazioni in “token”, ossia piccoli pacchetti di dati che il modello può usare per “imparare” la struttura della musica. In sostanza, questi token sono come pezzi di puzzle che rappresentano le varie parti della musica e  servono al modello come base per generare nuova musica.

L’addestramento si è svolto poi in modo molto particolare: gli scienziati hanno rimosso casualmente alcuni dei token dalle sequenze musicali, il che ha permesso al modello di diventare più flessibile e adattabile. Il modello ha così imparato a gestire e completare una melodia anche quando mancava alcune informazioni, cosa che si traduce in una maggiore libertà creativa per l’utente.

Il sistema non è pensato solo per esperti ma può essere utilizzato da chiunque. L’interfaccia permette infatti di scegliere quali strumenti utilizzare, il tempo della canzone e altri parametri. Dopo che il modello ha generato una prima versione della traccia, l’utente può modificarla facilmente, aggiungendo o rimuovendo strumenti, o regolandoli quando questi inizieranno a suonare. I test condotti hanno mostrato che il modello funziona bene per generare fino a 4 barre musicali in modo coerente e controllabile. In futuro, i ricercatori sperano di espandere il sistema, permettendo la generazione di brani più lunghi e offrendo più opzioni di personalizzazione. Questo sistema rappresenta un passo avanti nell’utilizzo dell’AI per la creazione musicale combinando tecniche matematiche avanzate con un’interfaccia facile da usare per permettere a chiunque di dare vita alle proprie idee musicali.

Pin It
This website uses the awesome plugin.