MIDI Zwei Punkt Null – dieser Begriff kursiert seit einigen Jahren durch Fachpresse und Internet-Foren. MIDI 2.0 verspricht viele Verbesserungen des bereits seit den 1980er Jahren existierenden Systems zur digitalen Kommunikation von Musikinstrumenten. Aber welche Möglichkeiten wird dieser neue MIDI-Standard bringen? Wird alte MIDI-Technik dadurch vollständig abgelöst werden? Und welche Funktionalität wird bei der täglichen Arbeit von Nutzen sein? Fragen über Fragen…

Beschäftigt man sich mit den Spezifikationen des neuen MIDI-Systems, dann drängt sich einem die Frage auf: Warum gibt’s das nicht schön längst? Tatsächlich scheinen die Vorteile vielfältig. Es beginnt schon mit dem Negotiation-Prozedere beim Verkabeln. Die angeschlossenen MIDI-Geräte kommunizieren untereinander, um sich selbständig zu konfigurieren. Die Erlösung für alle, die sich heute noch fragen: „Stecke ich das jetzt auf MIDI-In oder MIDI-Out?“

Nichtsdestotrotz müssen die Errungenschaften des neuen MIDI 2.0-Systems noch im Konjunktiv geschrieben werden. Denn nur sehr wenige Anwendungen und Geräte unterstützen bislang MIDI 2.0. (Aber es werden mehr!)

MIDI 2.0 – ein selbstorganisierendes Netzwerk

Tatsächlich erscheint eine automatische Konfiguration sehr sinnvoll und praktisch, gerade wenn man mehrere unterschiedliche Controller und Instrumente in einem großen MIDI-Verbund nutzt. So stellen MIDI-2.0-fähige Geräte über Profile Identifier Hersteller-spezifische Informationen zur Verfügung. 

Einen Manufacturer ID-Code, über welchen ein MIDI-Instrument einem Hersteller zugeordnet werden kann, gibt es bereits bei MIDI 1.0. Bei MIDI 2.0 aber geht es mehr in die Tiefe, und die MIDI-CI (= Capability Inquiry) gibt Auskunft über die technische Spezifikation der Instrumente.

Diese Profile halten Informationen bereit, aufgrund derer Instrumente in einem System in logische Gruppen organisiert werden können. Es geht z.B. darum, ob das jeweilige Instrument etwa auf einem einzelnen MIDI-Kanal arbeitet oder ob es sich um ein Multichannel-Instrument handelt – z.B. eine MIDI-Gitarre, welche über sechs individuelle MIDI-Känale (je ein MIDI-Kanal pro Saite) Daten parallel an den Sequenzer übermittelt (sich im Sequenzer dann jedoch wie ein einzelner Track verhalten soll).

>>> Mehr darüber im Abschnitt: Polyphonic Multidimensional Controllers…

Property Exchange

Beats einspielen über Pad- und Drum-Controller oder coole E-Piano-Sounds mit einem ganz gewöhnlichen Keyboard spielen. Das ist bei der Arbeit mit einer DAW längst Alltag, einen Controller per USB anzuschließen, ist super easy. Aber: Wie integriert sich dann ein Controller, so dass sich die Funktionen unterschiedlicher Software-Instrumente gleichermaßen sinnvoll handhaben lassen?

Property Exchange ist die Antwort der MIDI-2.0-Spezifikation! Diese Funktionalität ist in gewisser Weise ähnlich mit bereits bekannten Anwendungen, die Parameter-Informationen mit Hardware-Controllern austauschen. Das allerdings funktioniert nur mit solchen Controllern, die der DAW auch bekannt sind. Möglich wird sowas durch proprietäre Lösungen, Wrapping-Applikationen und Controller-Scripte, die nur mit ausgewählten Geräten funktionieren.

Property Exchange hingegen standardisiert diese Funktionalität. Bietet also ein Controller-Keyboard in seiner MIDI-CI diese Fähigkeit an, dann kann die DAW die Parameter eines Synth-Plugins mit dem Controller nativ austauschen.

Schöne neue Welt: Dank Property Exchange erscheinen die Synth-Parameter automatisch in den Display-Anzeigen wie beim neuen KORG Keystage.

MIDI 2.0: Mehr Performance!

Erstaunlich wie lange das MIDI-System nun schon (fast) unverändert genutzt wird. Selbst wenn man es nicht direkt erkennen kann – in allen DAWs ist die Grundlage der Instrument-Tracks noch immer MIDI 1.0. Solange man innerhalb der DAW mit Software-Instrumenten arbeitet, stellt das erst einmal kein Problem dar, denn im Prinzip funktioniert’s ja.

MIDI ist praktikabel, in der Musikproduktion aber nicht gerade berühmt für tightes Timing.

Sobald aber externe Instrumente im Spiel sind, kann man die Limits von MIDI spüren. Timing-Schwankungen sind zu hören, sobald man über die maximal 16 Kanäle mit vielen Noten- und Controller-Events ausspielt.

Mit MIDI 2.0 soll das vorbei sein, denn hier stehen nicht weniger als 256 MIDI-Kanäle parallel zu Verfügung, die in 16 Gruppen organisiert sind. Das allein aber ist noch nicht der Game Changer. Essenziell sind vor allem diese Punkte:


1. Mehr Speed

Das Limit der 16 Kanäle wird bis heute durch Multiport-MIDI-Interfaces umgangen, ein wenig auch die relativ langsame Daten-Übertragung.

Daher kann man sagen, ist MIDI praktikabel, in der Musikproduktion aber nicht gerade berühmt für tightes Timing. Mit MIDI 2.0 wird die Übertragungsgeschwindigkeit der Daten erhöht, was natürlich nur bis zu dem Punkt wirksam sein dürfte, wo von MIDI 2.0 auf MIDI 1.0 gewandelt werden muss.


2. Besseres Timing

Ein Zauberwort der Timing-genauen Datenübertragung via MIDI 2.0: Jitter Reduction Timestamps! MIDI-Events gehen mit einer Zeitinformation als Paket auf den Weg, um beim Empfänger mit korrektem Timing „ausgepackt“ zu werden. Es ist allerdings nicht die Lösung aller Probleme, denn neben Jitter (Präzision) gibt es noch den Faktor Latenz (Sync).

Letzteres Problem steckt in der Verkabelung von Hardware und nicht zuletzt in der Hardware selbst. In den 80ern hatten einige MIDI-Geräte einen großen Zeitversatz, da die MIDI-Wandlung auf die Klangerzeugung und sogar die Klangerzeugung selbst eine Latenz hatten.

Perfektes Timing der MIDI-Events dank Jitter Reduction Timestamps. (Bild: www.midi.org)  

Da auch im neuen MIDI 2.0 die alten Schätzchen aus den 80ern über die DIN-Buchse integriert werden können, wird man folglich auch deren Latenz immer kompensieren müssen. Aber das können DAWs ja heute schon recht gut.


3. Höhere Auflösung

Ein oft geäußerter Wunsch vieler Produzent*innen und Musiker*innen: Differenziertere Ausdrucksmöglichkeiten der MIDI-Noten und feinere Regler-Aktionen – eine höhere Auflösung dynamischer MIDI-Events muss her!

Unter MIDI 1.0 ist theoretisch eine höhere Auflösung möglich, jedoch werden die 14 Bit in der Praxis kaum genutzt. Üblich sind MIDI-Daten in einer Abstufung von 128 Schritten.

Spürbare Vorteile werden die höhere Auflösung und die schnellere Übertragung bei einem 2.0-MIDI-Masterkeyboard bringen. Ist dieses mit einer MIDI-2.0-fähigen DAW-Software verbunden, um Software-Instrumente mit VST3- oder Clap-Unterstützung gespielt, dann sollte eine deutlich feinere Kontrolle von Velocity, Aftertouch und nicht zuletzt Controller-Aktionen von Reglern und Fadern möglich sein. Und das bringt uns zu Punkt 4…


4. Bessere Artikulation- und Klangsteuerung

Neben der feineren Kontrolle von technischen Abläufen wie Controller-Bewegungen münden die Verbesserungen vor allem auch in die Ausdrucksmöglichkeiten von Klangerzeugern. Diese sind bei MIDI 1.0 im Vergleich zu z.B. einem Saxofon oder einer Geige sehr bescheiden: Velocity, Pitch Bend, Modulation, Channel’s Aftertouch sowie (sehr, sehr rar!) polyphonic Aftertouch sind der Standard.

Aber wie sieht es mit Microtuning, Lautstärke und Klangfarbe bei individuell pro Ton ausgeführten Vibrati aus? Diese Performance-Eigenschaften sollen bei MIDI 2.0 möglich sein – wohlgemerkt bei polyfonem Spiel für jede einzelne Note.

Polyphonic Multidimensional Controllers

Bereits jetzt gibt es sogenannte MPE-Controller die –  ganz ähnlich wie eine MIDI-Gitarre – mehrkanalig arbeiten. Und es gibt DAWs, die diese Informationen aufnehmen und für die Bearbeitung visualisieren können. Jede einzelne Stimme kann hier z.B. Anschlagdynamik, Aftertouch (Pressure), Pitch und Timbre enthalten – Controller-Informationen, die parallel über separate MIDI-Kanäle pro Voice in den Sequenzer übertragen werden und eine vielschichtige Gestensteuerung erlauben.

Die Konfiguration solcher Multichannel-Controller kann je nach DAW recht kompliziert ausfallen – manche verlangen tatsächlich nach einzelnen MIDI-Tracks für jede einzelne Note. Ohne Channel-Groups verliert man bei Aufnahme und Nachbearbeitung schnell die Übersicht. MIDI 2.0 verspricht dank die Profile-orientierten Konfiguration (s.o.) Verbesserung.

MPE und MIDI 2.0

MPE-Controller nehmen einige Features von MIDI 2.0 vorweg – es handelt sich dabei aber nicht explizit um ein MIDI-2.0-Feature, das bereits funktionieren würde. Man darf aber hoffen, dass MIDI-Controller mit komplexer Gestensteuerung sofort lauffähig sein werden, denn MPE ist als Profile Identifier ebenso vorgesehen wie z.B. ein Orchestral Articulation Profile, was im Zusammenhang betrachtet die Gesten-gesteuerte Artikulation elektronischer Klänge vereinfachen und auf ein neues Level bringen sollte.

Resümee

Schöne neue Welt – auch wenn von außen betrachtet sich nicht viel zu ändern scheint – es bleibt bei den 5-poligen Anschlüssen und USB: Von innen betrachtet verspricht MIDI 2.0 essenzielle Verbesserungen.

MIDI 2.0 Logo (Bild: www.midi.org)  

Für die meisten Anwender*innen dürfte die viel höhere Auflösung im Fokus sein, denn die damit ermöglichte nuancierte Artikulation spricht nicht allein die Super-Performer an, die mehr als 128 Velocity-Werte tatsächlich spüren. Ganz zu schweigen von mikrotonaler Per-Note-Steuerung im polyfonem Zusammenhang. Bei Tasteninstrumenten ist das bekanntlich eine völlig neue Challenge in Sachen Spieltechnik – und seeehr speziell…:-)

Den größten Verbesserungsschub dürften MIDI-2.0-fähige Controller bringen. In der Musikproduktion wird die noch viel höhere Auflösung von #CC Controllern dynamische Vorgänge so feine Skalierung ermöglichen, dass zur Analogtechnik kaum noch ein Unterschied zu spüren sein sollte. Ebenfalls ist die Nutzung des neuen Property-Exchange-Standards besonders interessant, da hierdurch zeitintensives MIDI-Mapping für unterschiedliche Software-Instrumente und -Effekte der Vergangenheit angehören. Gerade dieser Vorteil zeichnet das KORG Keystage aus, das sich z. B. unter Ableton Live nahtlos in die DAW integriert und sich somit automatisch auf die jeweils angewählten Devices einstellt – und das tatsächlich in Echtzeit.

WordPress Cookie Plugin von Real Cookie Banner