[Review] MIDI 2.0: Cos’è e cosa Comporta per I produttori

Lo standard MIDI, il protocollo che usiamo ogni giorno per riprodurre e programmare musica su computer, sintetizzatori e altri dispositivi elettronici è rimasto fermo per 35 anni alla versione 1.0.

All’inizio del 2019 si sono visti i primi prototipi di sintetizzatore e controller MIDI 2.0 e al Winter NAMM, aziende come Ableton, Google, Roland, Steinberg, Yamaha e Native Instruments si sono riunite per il “Plug Fest” MIDI 2.0, facendo eco all’evento che si era verificato nella creazione di MIDI 1.0. Cosa è accaduto? Semplice, tutti se ne sono andati in giro per gli stand con ciò che avevano in mano, collegando i prototipi e gli apparecchi già in commercio e controllando cosa succedeva. Questa è stata la prima volta che tutte le aziende del gruppo di prototipazione si sono ritrovate nella stessa stanza.

Cosa può offrirci quindi il MIDI 2.0 che non sia già alla portata del protocollo 1.0?

Uno degli aggiornamenti più ovvi a un moderno sistema di comunicazione digitale è la risoluzione. La velocità passa da 7 a 16 bit e, considerato che la maggior parte dei controller di oggi è dotata di 32 bit, significa una risoluzione decisamente maggiore.

Taluni sostengono che i controlli ad alta risoluzione non sono necessari per le applicazioni di produzione musicale, ma il MIDI è diventato oggi molto più di un semplice standard musicale, con estensioni ai campi dell’ illuminazione e l’animatronica che percepiscono i benefici di una risoluzione più elevata.

Con un mercato zeppo di apparecchiature basate sullo standard 1.0 sembra ovvio concludere che una delle mosse chiave per la diffusione del 2.0 sarà la sua retro compatibilità con il protocollo precedente.

Il grande cambiamento in MIDI 2.0 è che deve essere una comunicazione bidirezionale. Prima, avevamo strumenti che inviavano delle note, senza aveva idea chi fosse dall’altra parte e cosa sarebbe successo all’arrivo di quel flusso di dati. La prima cosa che accadrà con il MIDI 2.0 è che due dispositivi si allineeranno e si scambieranno tra loro e scopriranno cosa faranno. Se non viene restituito nulla, lo strumento di comporterà di fatto come un dispositivo MIDI 1.0. Questo protocollo si chiamerà MIDI CI, ossia Compatibility Inquiry.

Partendo dal MIDI CI, lo scambio di proprietà (Property Exchange) consente a un dispositivo di chiedere a un altro dispositivo quali parametri siano disponibili e a quali sia possibile accedere. Elenchi di parametri, mappature dei controller, parametri di sintesi e informazioni sui preset sono alcuni dei dettagli che possono essere comunicati, usando peraltro nomi significativi, piuttosto che numeri astratti e generici.

Chiunque abbia utilizzato l’automazione su un plug-in synth all’interno di un sequencer comprenderà i vantaggi di poter vedere cosa c’è dall’altra parte del synth. Con un synth hardware su MIDI 1.0 potrebbe essere Program 16 e non si avrebbe idea di cosa si tratti.

Come altro risultato di Capability Inquiry, il mondo dei controller MIDI, compresi eventuali dispositivi non standard come i controller wind o le chitarre MIDI, sarà in grado di integrarsi con le configurazioni musicali molto più facilmente.

Adottando un sistema di Profili, l’industria può Definire uno standard per i blocchi di controller che utilizzeremo per i drawbar, e non appena due dispositivi MIDI 2.0 concordano che entrambi supportano quel profilo, si configurano automaticamente senza ulteriori passaggi.

In occasione del Amsterdam Dance Event di quest’anno, Steinberg ha illustrato come gli strumenti VST 3 si adatteranno al MIDI 2.0, dimostrando che le specifiche VST 3 sono più che pronte a gestire la risoluzione estesa di MIDI 2.0, avendo già implementato una risoluzione maggiore. La palla passa ora agli sviluppatori DAW che dovranno implementare correttamente le specifiche MIDI 2.0, ma i plug-in VST 3 sono pronti a gestire tutto ciò che sta arrivando.

Una delle fantastiche novità per il MIDI 2.0 è che 16 canali diventeranno 256. Quindi ogni messaggio inizia con un tipo di messaggio e un gruppo di canali Per un totale di 16 gruppi di canali. Quindi ora abbiamo 16 cavi virtuali con 16 canali ciascuno.

Questo consente anche di inviare un messaggio di dati MIDI 1.0 su un canale, quindi se abbiamo un dispositivo molto semplice che non richiede dati a risoluzione più elevata, può funzionare su uno di quei 256 canali, insieme ad altri dispositivi 1.0 e 2.0, con un singolo collegamento fisico.

Universal MIDI Packet è un’altra novità in arrivo col nuovo standard. Un messaggio MIDI 1.0 lungo da due a tre byte, a seconda del contesto, instradato attraverso Universal MIDI Packet che prevede sempre multipli di 32 bit, sarà sempre lungo 32 bit e tutti i nuovi messaggi del canale sono tutti 64 bit, due parole a 32 bit. E poi ci sono anche messaggi a 96 e 128 bit. Ad esempio, i dati SysEx verranno inviati a 128 bit alla volta.

Uno dei nuovi tipi di messaggi MIDI 2.0 sono i timestamp JR, ​​che sta per Jitter Reduction. Ci sarà un’opzione per anteporre uno di questi messaggi di data e ora a ogni messaggio MIDI 2.0 in uscita che un dispositivo invia. Ciò consente al tempo del mittente di essere codificato in ogni messaggio. Se qualcosa viene confuso e ritardato nella trasmissione, il ricevitore sa comunque a che ora sarebbe dovuto arrivare piuttosto che sapere l’ora in cui è effettivamente arrivato.

Di recente, la MIDI Manufacturers Association ha adottato ufficialmente MPE (MIDI Polyphonic Expression) nelle specifiche, il che significa che controller come Linnstrument, Haaken Continuum e Expressive E’s Osmose possono comunicare facilmente con strumenti progettati per essere suonati con pitchbend polifonico. Il MIDI 2.0 offre anche supporto per MPE, ma potrebbe andare ben oltre. Non solo è possibile inviare messaggi per eseguire pitchbending polifonici, variando separatamente più note singole in pitch, ma è anche possibile inviare dati CC polifonici per nota.

Gli eventi Note On e Note Off ora hanno un nuovo campo dati chiamato attributo e uno degli attributi predefiniti è il tono. Un produttore può decidere di creare il proprio linguaggio di attributi, quindi, ad esempio, le librerie di campioni sinfoniche utilizzano l’ottava inferiore della tastiera per i keyswitches che controllano l’articolazione, ma se si utilizza l’articolazione come attributo, si potrebbe avere un controller ad alta risoluzione in cui la parte anteriore del tasto riproduce un pizzicato e mentre ti sposti verso la parte posteriore del tasto cambi l’articolazione o qualsiasi altro attributo del suono.

Non ci resta che attendere gli sviluppi di quella che si preannuncia come una vera rivoluzione da 35 anni a questa parte nel mondo della produzione musicale.