Musical Instrument Digital Interface (; MIDI) représente une norme technique américano-japonaise englobant un protocole de communication, une interface numérique et des connecteurs électriques. Cette norme facilite l'interconnexion de divers instruments de musique électroniques, ordinateurs et équipements audio associés à des fins d'interprétation musicale, d'édition et d'enregistrement. Un seul câble MIDI possède la capacité de transmettre jusqu'à seize canaux distincts de données MIDI, chacun pouvant être dirigé vers un appareil indépendant. Chaque interaction de l'utilisateur, que ce soit avec une touche, un bouton, un bouton ou un curseur, est transformée en événement MIDI. Ces événements transmettent des instructions musicales spécifiques, notamment la hauteur, le placement temporel et la vélocité d'une note. Une application répandue du MIDI consiste à utiliser un clavier MIDI ou un autre contrôleur pour activer un module sonore numérique, qui héberge des sons musicaux synthétisés, générant ainsi une sortie audio qui est ensuite amplifiée pour un public. Les données MIDI peuvent être transmises via des câbles MIDI ou USB, ou bien enregistrées sur un séquenceur ou une station de travail audio numérique pour une édition ou une lecture ultérieure.
Interface numérique pour instruments de musique (; MIDI) est une norme technique américano-japonaise qui décrit un protocole de communication, une interface numérique et des connecteurs électriques qui connectent une grande variété d'instruments de musique électroniques, d'ordinateurs et d'appareils audio associés pour lire, éditer et enregistrer de la musique. Un seul câble MIDI peut transporter jusqu'à seize canaux de données MIDI, chacun pouvant être acheminé vers un appareil distinct. Chaque interaction avec une touche, un bouton, un bouton ou un curseur est convertie en un événement MIDI, qui spécifie des instructions musicales, telles que la hauteur, le timing et la vélocité d'une note. Une application MIDI courante consiste à jouer sur un clavier MIDI ou un autre contrôleur et à l'utiliser pour déclencher un module sonore numérique (qui contient des sons musicaux synthétisés) afin de générer des sons que le public entend produits par un amplificateur de clavier. Les données MIDI peuvent être transférées via un câble MIDI ou USB, ou enregistrées sur un séquenceur ou une station de travail audio numérique pour l'édition ou la lecture.
De plus, MIDI établit un format de fichier conçu pour le stockage et l'échange de ces données. Les avantages inhérents à la technologie MIDI incluent sa taille de fichier compacte, la simplicité de modification et de manipulation des données et la vaste gamme d'instruments électroniques compatibles, ainsi que les sons synthétisés ou échantillonnés numériquement qu'elle prend en charge. Bien qu'un enregistrement MIDI d'une performance au clavier puisse initialement émuler un piano ou un autre instrument à clavier, la nature du MIDI (qui capture des messages et des informations sur les notes plutôt que des formes d'onde audio spécifiques) permet à cet enregistrement d'être réinterprété avec une multitude de sons alternatifs, depuis des guitares et flûtes synthétisées ou échantillonnées jusqu'à un ensemble orchestral complet.
Avant l'avènement du MIDI, les instruments de musique électroniques produits par divers fabricants possédaient une interopérabilité limitée, s'appuyant principalement sur des connexions CV/gate pour la communication. L'introduction du MIDI a révolutionné ce paysage, permettant à tout clavier ou autre dispositif de contrôle compatible MIDI de se connecter de manière transparente à tout autre séquenceur, module de son, boîte à rythmes, synthétiseur ou ordinateur compatible MIDI, quels que soient leurs fabricants respectifs.
La technologie MIDI a été standardisée en 1983 grâce aux efforts de collaboration d'un panel composé de représentants de l'industrie musicale. Sa maintenance continue est supervisée par la MIDI Manufacturers Association (MMA). Toutes les normes MIDI officielles sont développées et diffusées en collaboration par le MMA, basé à Los Angeles, et le Comité MIDI de l'Association of Musical Electronics Industry (AMEI), situé à Tokyo. En 2016, le MMA a fondé la MIDI Association (TMA) dans le but de favoriser une communauté mondiale pour les personnes engagées dans le travail, la performance ou la création avec le MIDI.
Historique
Au début des années 1980, l'absence d'une méthode standardisée pour synchroniser les instruments de musique électroniques produits par divers fabricants représentait un défi de taille. Chaque entreprise utilisait généralement ses propres normes de synchronisation propriétaires, dont des exemples incluaient CV/gate, la synchronisation DIN et le bus de contrôle numérique (DCB). Ikutaro Kakehashi, alors président de Roland, reconnaissait que ce manque de standardisation entravait l'expansion de l'industrie de la musique électronique. Par conséquent, en juin 1981, il a lancé une proposition pour le développement d'une norme universelle, présentant cette idée à Tom Oberheim, le fondateur d'Oberheim Electronics, qui avait auparavant conçu sa propre interface propriétaire, l'Oberheim Parallel Bus.
Kakehashi a jugé le système existant d'Oberheim trop complexe et s'est ensuite engagé avec Dave Smith, président de Sequential Circuits, pour explorer la création d'une alternative plus rationalisée et plus rentable. Tandis que Smith poursuivait les discussions sur ce concept avec des sociétés américaines, Kakehashi consultait simultanément des sociétés japonaises telles que Yamaha, Korg et Kawai. Les représentants de toutes ces sociétés se sont réunis en octobre pour délibérer sur la proposition. Au départ, seuls Sequential Circuits et les sociétés japonaises susmentionnées ont exprimé leur intérêt.
En tirant parti du DCB de Roland comme cadre de base, Smith et l'ingénieur de Sequential Circuits, Chet Wood, ont conçu une interface universelle conçue pour faciliter la communication entre les équipements de différents fabricants. Smith et Wood ont officiellement introduit cette norme dans un article intitulé Universal Synthesizer Interface présenté au salon de l'Audio Engineering Society en octobre 1981. La norme proposée a ensuite été discutée et affinée par des représentants de Roland, Yamaha, Korg, Kawai et Sequential Circuits. Kakehashi a initialement préconisé le nom Universal Musical Interface (UMI), prononcé you-me ; cependant, Smith considérait cette appellation comme « un peu ringarde ». Néanmoins, Smith a apprécié la substitution de instrument par synthétiseur et a par conséquent proposé la désignation Musical Instrument Digital Interface (MIDI). Robert Moog, président de Moog Music, a officiellement annoncé le MIDI dans l'édition d'octobre 1982 de Keyboard.
Au Winter NAMM Show de 1983, Smith a fait la démonstration d'une connexion MIDI entre le Prophet 600 et les synthétiseurs Roland JP-6. La spécification MIDI a ensuite été publiée en août 1983. Kakehashi et Smith ont officiellement dévoilé le standard MIDI, pour lequel ils ont reçu conjointement des Grammy Awards techniques en 2013. La même année, les premiers instruments équipés du MIDI, le Roland Jupiter-6 et le Prophet 600, ont été lancés, aux côtés de la première boîte à rythmes MIDI, le Roland TR-909, et du premier séquenceur MIDI, le Roland MSQ-700.
La MIDI Manufacturers Association (MMA) a été créée à la suite d'un rassemblement de « toutes les entreprises intéressées » lors du Summer NAMM Show de 1984 à Chicago. La spécification détaillée MIDI 1.0 a ensuite été publiée lors de la deuxième réunion du MMA au Summer NAMM Show de 1985. La norme a connu une évolution continue, intégrant des fichiers de chansons standardisés en 1991 avec le General MIDI et s'adaptant aux protocoles de connexion contemporains tels que USB et FireWire. En 2016, la MIDI Association a été créée pour assurer la surveillance de la norme. Une version abrégée du MIDI 1.0 a été publiée sous le nom de norme internationale CEI 63035 en 2017. Une initiative visant à développer une norme 2.0 a été annoncée en janvier 2019, avec la norme MIDI 2.0 officiellement introduite au Winter NAMM Show 2020.
La BBC a reconnu le MIDI comme l'un des premiers exemples de technologie open source. Smith a exprimé sa conviction que le succès du MIDI dépendait de son adoption universelle par les fabricants, ce qui nécessitait que « nous devions l'abandonner ».
Impact
Au départ, l'attrait du MIDI se limitait aux musiciens professionnels et aux producteurs de disques cherchant à intégrer des instruments électroniques dans la production musicale populaire. La capacité de la norme à permettre la communication entre divers instruments et ordinateurs a catalysé une expansion rapide des ventes et de la fabrication d'instruments électroniques et de logiciels musicaux. Cette interopérabilité a permis à un appareil d’en contrôler un autre, réduisant ainsi le nombre de musiciens matériels requis. L'émergence du MIDI a coïncidé avec l'avènement de l'ère des ordinateurs personnels et l'introduction des échantillonneurs et des synthétiseurs numériques. Les possibilités innovantes offertes par la technologie MIDI sont largement reconnues pour avoir contribué à la revitalisation de l'industrie musicale dans les années 1980.
Le MIDI a introduit des capacités de transformation qui ont fondamentalement modifié les méthodes de travail de nombreux musiciens. Le séquençage MIDI permet aux utilisateurs sans compétences en notation formelle de construire des arrangements musicaux complexes. Un ensemble musical comprenant seulement un ou deux membres, chacun utilisant plusieurs appareils compatibles MIDI, peut réaliser une performance comparable à celle d'un plus grand groupe de musiciens. Cette technologie réduit ou élimine considérablement les dépenses associées à l'embauche de musiciens externes pour un projet, permettant ainsi de réaliser des productions complexes sur des systèmes aussi compacts qu'un synthétiseur avec un clavier et un séquenceur intégrés.
De plus, le MIDI a joué un rôle crucial dans l'établissement des pratiques d'enregistrement à domicile. En réalisant la préproduction dans un cadre domestique, les artistes peuvent réduire les coûts d'enregistrement en présentant une chanson partiellement terminée dans un studio professionnel. En 2022, le Guardian affirmait que le MIDI conservait une importance pour la musique analogue à celle de l'USB dans l'informatique, représentant « un système de valeurs crucial de coopération et d'avantages mutuels, un système pratiquement rejeté par les grandes entreprises technologiques d'aujourd'hui en faveur des marchés captifs ». En 2005, la spécification MIDI de Smith a été intronisée au TECnology Hall of Fame, une distinction décernée aux « produits et innovations qui ont eu un impact durable sur le développement de la technologie audio ». Depuis 2022, la conception MIDI originale de Smith continue d'être activement utilisée.
Applications
Contrôle des instruments
MIDI a été conçu pour faciliter la communication entre instruments de musique électroniques ou numériques, permettant à un instrument d'en contrôler un autre. Par exemple, un séquenceur compatible MIDI peut déclencher des motifs rythmiques générés par un module de sons de batterie. Les synthétiseurs analogiques, dépourvus de composants numériques et antérieurs au développement du MIDI, peuvent être équipés de kits qui convertissent les messages MIDI en tensions de contrôle analogiques. Lorsqu'une note est jouée sur un instrument MIDI, elle génère un message MIDI numérique capable de déclencher une note correspondante sur un autre instrument. Cette capacité de contrôle à distance permet à des modules sonores plus petits de remplacer des instruments de taille normale, et les musiciens peuvent combiner des instruments pour obtenir un son plus riche ou mélanger des timbres d'instruments distincts, tels qu'un piano acoustique et des cordes. Le MIDI étend également le contrôle à distance à divers paramètres de l'instrument, notamment le volume et les effets.
Les synthétiseurs et échantillonneurs intègrent diverses fonctionnalités pour manipuler l'audio électronique ou numérique. Les filtres modifient le timbre, tandis que les enveloppes régulent l'évolution temporelle d'un son suite à l'activation d'une note. Les paramètres du synthétiseur, tels que la fréquence du filtre et l'attaque de l'enveloppe (la durée nécessaire pour qu'un son atteigne son amplitude maximale), peuvent être contrôlés à distance via MIDI. Les unités d'effets possèdent des paramètres distincts, notamment le retour de retard et le temps de réverbération. Lorsqu'un numéro de contrôleur continu MIDI (CCN) est attribué à un paramètre spécifique, l'appareil traite les messages entrants associés à cet identifiant. Ces messages peuvent être transmis à l'aide de diverses commandes, telles que des boutons, des commutateurs et des pédales. Un ensemble configuré de paramètres peut être stocké dans la mémoire interne d'un appareil sous forme de patch, qui peut ensuite être rappelé à distance via des modifications de programme MIDI.
Composition musicale
Les événements MIDI peuvent être séquencés à l'aide d'un logiciel informatique ou de stations de travail musicales dédiées. De nombreuses stations de travail audio numériques (DAW) sont conçues avec le MIDI comme élément fondamental intégré. L'intégration de piano rolls MIDI dans de nombreuses DAW facilite la modification simple des messages MIDI enregistrés. De telles fonctionnalités permettent aux compositeurs de réviser et d'affiner leurs créations avec une rapidité et une efficacité nettement supérieures par rapport aux méthodes traditionnelles comme l'enregistrement multipiste. De plus, le MIDI permet la programmation de compositions qui transcendent les capacités des interprètes humains.
Étant donné qu'une performance MIDI constitue une série de commandes générant du son, les enregistrements MIDI offrent des possibilités de manipulation inaccessibles aux enregistrements audio. Cela inclut la capacité de modifier la tonalité, l'instrumentation ou le tempo d'un arrangement MIDI, de réorganiser ses sections constitutives ou même de modifier des notes individuelles. La possibilité de conceptualiser des idées musicales et d'entendre rapidement leur interprétation favorise une expérimentation approfondie parmi les compositeurs.
Un logiciel de composition algorithmique génère des performances produites par ordinateur, qui peuvent servir de concepts musicaux fondamentaux ou d'accompagnement.
Certains compositeurs exploitent les ensembles de commandes et de paramètres standardisés et portables de MIDI 1.0 et General MIDI (GM) pour l'échange de données musicales entre instruments. Les données générées via des enregistrements MIDI séquencés peuvent être stockées sous forme de fichier MIDI standard (SMF), permettant la diffusion et la reproduction numériques sur n'importe quel ordinateur ou instrument électronique conforme aux normes MIDI, GM et SMF. Notamment, les fichiers de données MIDI sont considérablement plus compacts que leurs homologues audio enregistrés équivalents.
Intégration avec les systèmes informatiques
L'émergence du MIDI a coïncidé avec la stabilisation du marché des ordinateurs personnels, positionnant les ordinateurs comme une plate-forme réalisable pour la production musicale. En 1983, les ordinateurs ont commencé à influencer considérablement la production musicale grand public. Suite à la ratification de la spécification MIDI en 1983, les fonctionnalités MIDI ont ensuite été intégrées dans diverses architectures informatiques naissantes. Par exemple, le Yamaha CX5M, sorti en 1984, incorporait la prise en charge MIDI et les capacités de séquençage dans un système MSX.
La prolifération du MIDI sur les plates-formes informatiques domestiques a été considérablement avancée par le MPU-401 de Roland Corporation, introduit en 1984. Cet appareil était remarquable en tant que première carte son équipée du MIDI, offrant à la fois des fonctionnalités de traitement du son et de séquençage MIDI. La distribution ultérieure par Roland de puces sonores MPU à d'autres fabricants de cartes son a établi de facto une norme d'interface MIDI-PC universelle. La large acceptation du MIDI a stimulé le développement de logiciels MIDI centrés sur l'ordinateur. Peu de temps après, de nombreuses plates-formes informatiques, notamment les compatibles Apple II, Macintosh, Commodore 64, Amiga, Acorn Archimedes et IBM PC, ont commencé à prendre en charge le MIDI. Notamment, l'Atari ST de 1985 a été lancé avec des ports MIDI intégrés en standard.
En 2015, Retro Innovations a introduit l'interface MIDI initiale pour le VIC-20, permettant ainsi aux musiciens électroniques et aux aficionados de rétro-informatique d'accéder aux quatre voix de l'ordinateur. Retro Innovations produit également des cartouches d'interface MIDI compatibles avec les ordinateurs Tandy Color et Dragon.
Les artistes Chiptune utilisent des consoles de jeux vintage pour la composition, la production et les performances musicales, facilitées par des interfaces MIDI. Des interfaces spécialisées sont disponibles pour des plates-formes telles que Family Computer/Nintendo Entertainment System, Game Boy, Game Boy Advance et Sega Mega Drive/Sega Genesis.
Gestion des fichiers informatiques
Les fichiers MIDI ne constituent pas des enregistrements audio. Au lieu de cela, ils comprennent une série d’instructions, telles que celles pour la hauteur ou le tempo, et occupent généralement beaucoup moins d’espace disque – potentiellement mille fois plus réduit – par rapport à un enregistrement audio équivalent. La taille minimale des fichiers des arrangements MIDI en faisait une méthode attrayante pour le partage de musique en ligne avant la disponibilité généralisée de l'Internet haut débit et des périphériques de stockage de plusieurs gigaoctets. Une limitation importante provenait cependant de la variabilité considérable de la qualité des cartes audio des utilisateurs et du contenu audio réel (échantillons ou sons synthétisés) de ces cartes, auquel les données MIDI se réfèrent simplement symboliquement. Même les cartes son de haute qualité comportant des sons échantillonnés peuvent présenter une fidélité incohérente entre les différents instruments échantillonnés. Les premières cartes son économiques, notamment AdLib, Sound Blaster et leurs homologues compatibles, utilisaient une itération simplifiée de la technologie de synthèse de modulation de fréquence (synthèse FM) de Yamaha, rendue via des convertisseurs numérique-analogique de faible qualité. La sortie basse fidélité résultante de ces cartes répandues était souvent, bien qu'à tort, attribuée à la technologie MIDI elle-même. Cette idée fausse a favorisé une perception du MIDI comme étant un son intrinsèquement de mauvaise qualité, bien que le MIDI ne contienne aucun son réel ; sa fidélité de lecture est uniquement déterminée par les capacités du matériel de génération de son.
Le format Standard MIDI File (SMF) offre une méthodologie standardisée pour stocker, transférer et accéder à des séquences musicales sur différents systèmes. Cette norme a été développée et est gérée en permanence par le MMA, utilisant généralement une extension de fichier .mid. Leur petite taille a facilité leur adoption massive dans l'informatique, les sonneries de téléphones portables, le développement de pages Web et les cartes de vœux musicales. Conçus pour une compatibilité étendue, ces fichiers encapsulent des données telles que les valeurs de notes, les informations temporelles et les identifiants de piste. Les paroles peuvent être intégrées sous forme de métadonnées, permettant leur affichage par les appareils de karaoké.
Les fichiers MIDI standard (SMF) sont générés sous forme de format d'exportation à partir de séquenceurs logiciels ou de postes de travail matériels. Ces fichiers structurent les messages MIDI en une ou plusieurs pistes parallèles, horodatant les événements pour assurer une lecture séquentielle. Une section d'en-tête spécifie le nombre de pistes de l'arrangement, le tempo et désigne lequel des trois formats SMF le fichier utilise. Un fichier de type 0 consolide la performance complète sur une seule piste, tandis que les fichiers de type 1 peuvent accueillir plusieurs pistes exécutées de manière synchrone. Les fichiers de type 2 sont rarement utilisés et servent à stocker plusieurs arrangements distincts, chacun avec sa propre piste destinée à une lecture séquentielle.
Fichiers RMID
Microsoft Windows intègre des fichiers MIDI standard (SMF) avec des sons téléchargeables (DLS) dans un wrapper RIFF (Resource Interchange File Format), désignés comme fichiers RMID et portant une extension .rmi. Le format RIFF-RMID a depuis été remplacé par les Extensible Music Files (XMF).
Logiciel
L'un des principaux avantages de l'intégration d'un ordinateur personnel dans un système MIDI est sa polyvalence, lui permettant de remplir diverses fonctions en fonction du logiciel installé. Les capacités multitâches facilitent l'exécution simultanée de plusieurs applications, permettant potentiellement l'échange de données entre programmes.
Séquenceurs
Le logiciel de séquençage fournit des fonctionnalités permettant de manipuler les données MIDI enregistrées via des opérations d'édition informatique classiques, notamment couper, copier, coller et glisser-déposer. Les raccourcis clavier améliorent l'efficacité du flux de travail et, dans certaines configurations, les fonctions d'édition peuvent être déclenchées par des événements MIDI. Le séquenceur permet d'attribuer des sons distincts à des canaux individuels et présente une représentation graphique de l'arrangement musical. Une suite complète d'outils d'édition est accessible, comprenant un affichage de notation ou un graveur de partitions pour générer des parties musicales imprimables pour les interprètes. Des fonctionnalités telles que le bouclage, la quantification, la randomisation et la transposition rationalisent le flux de travail d'arrangement.
Le processus de création de rythme est simplifié et des modèles de groove peuvent être utilisés pour reproduire les caractéristiques rythmiques d'autres morceaux. Un réalisme amélioré dans l'expression musicale peut être obtenu en manipulant des contrôleurs en temps réel. Les opérations de mixage sont réalisables et les données MIDI peuvent être synchronisées avec les pistes audio et vidéo enregistrées. Les projets peuvent être enregistrés et transférés dans divers environnements informatiques ou studios.
Les séquenceurs peuvent se manifester dans des configurations alternatives, notamment des éditeurs de motifs de batterie qui permettent aux utilisateurs de créer des rythmes via une entrée basée sur une grille, et des séquenceurs de boucles comme ACID Pro, qui intègrent le MIDI avec des boucles audio préenregistrées dont les tempos et les touches sont automatiquement alignés. Le séquençage de listes de repères est utilisé pour lancer des dialogues, des effets sonores et des signaux musicaux dans les productions scéniques et diffusées.
Logiciel de notation
La technologie MIDI permet la transcription automatique des performances au clavier en partitions. Les logiciels de composition de partitions, généralement dépourvus de capacités de séquençage sophistiquées, sont principalement conçus pour produire des impressions nettes et professionnelles pour les musiciens live. Ces applications offrent des fonctionnalités telles que les marquages de dynamique et d'expression, la présentation des accords et des paroles, ainsi que diverses options de formatage de partition. De plus, il existe des logiciels spécialisés pour générer des partitions braille.
Les principaux logiciels de notation comprennent Finale, Encore, Sibelius, MuseScore et Dorico. De plus, le logiciel SmartScore facilite la génération de fichiers MIDI à partir de partitions numérisées.
Éditeurs et bibliothécaires
Les éditeurs de correctifs servent d'interfaces informatiques, permettant aux utilisateurs de programmer leur équipement. Ces outils sont devenus indispensables avec l'avènement de synthétiseurs complexes, tels que le Yamaha FS1R, qui comportait des milliers de paramètres programmables mais possédait une interface minimaliste comprenant quinze petits boutons, quatre boutons et un écran LCD compact. Alors que les instruments numériques dissuadent souvent les utilisateurs d'expérimenter en raison de leur retour tactile et de leur contrôle direct limités par rapport aux commutateurs et boutons physiques, les éditeurs de patchs offrent aux propriétaires d'instruments matériels et de périphériques d'effets les mêmes capacités d'édition complètes que celles disponibles pour les utilisateurs de synthétiseurs logiciels. Certains éditeurs sont conçus pour des instruments ou des unités d'effets spécifiques, tandis que d'autres, universels, s'adaptent à une gamme diversifiée d'équipements, permettant idéalement de contrôler tous les paramètres des appareils au sein d'une configuration via des messages exclusifs au système. Les messages System Exclusive exploitent le protocole MIDI pour transmettre des données concernant les paramètres d'un synthétiseur.
Les bibliothécaires de patchs remplissent le rôle spécialisé consistant à organiser des collections de sons sur divers équipements et à faciliter le transfert de banques de sons complètes entre un instrument et un ordinateur. Ce mécanisme étend efficacement le stockage restreint des correctifs d'un périphérique en utilisant la capacité disque beaucoup plus grande d'un ordinateur. Une fois transférés sur un ordinateur, les correctifs personnalisés peuvent être distribués aux autres propriétaires du même instrument. Historiquement, les éditeurs/bibliothécaires universels, qui intégraient les deux fonctions, étaient prédominants, illustrés par Galaxy d'Opcode Systems, SoundDiver d'eMagic et Unisyn de MOTU. Malgré l'abandon généralisé de ces programmes existants en raison de l'évolution vers la synthèse informatique avec des instruments virtuels, plusieurs éditeurs/bibliothécaires contemporains persistent, notamment Coffeeshopped Patch Base, Midi Quest de Sound Quest et diverses offres de Sound Tower. Kore de Native Instruments représentait une tentative d'adapter le paradigme éditeur/bibliothécaire pour les instruments logiciels, mais a été abandonné en 2011.
Programmes d'accompagnement automatique
Les applications logicielles capables de générer dynamiquement des pistes d'accompagnement sont désignées sous le nom de programmes d'accompagnement automatique. Ces applications construisent des arrangements pleine bande basés sur des styles sélectionnés par l'utilisateur et transmettent la sortie à un appareil de génération de son MIDI pour la reproduction. Les morceaux résultants servent à diverses fins, notamment des aides pédagogiques ou pratiques, un accompagnement de performances en direct ou une aide à l'écriture de chansons.
Synthèse et échantillonnage
Les ordinateurs peuvent utiliser des logiciels pour produire du son, qui passe ensuite par un convertisseur numérique-analogique (DAC) vers un amplificateur de puissance et un système de haut-parleurs. La capacité de lecture simultanée (polyphonie) dépend des performances du processeur de l'ordinateur, tout comme la fréquence d'échantillonnage et la profondeur de bits de la lecture, qui influencent toutes deux directement la fidélité sonore. Les synthétiseurs logiciels sont sensibles aux écarts de synchronisation que l'on ne rencontre généralement pas avec les instruments matériels, dont les systèmes d'exploitation dédiés sont insensibles aux interruptions des processus en arrière-plan courants dans les environnements de bureau. De tels problèmes de synchronisation peuvent entraîner des problèmes de synchronisation et des artefacts audibles tels que des clics et des pops lors d'une lecture d'échantillon interrompue. De plus, les synthétiseurs logiciels peuvent introduire une latence supplémentaire dans leur génération sonore.
Les origines de la synthèse logicielle remontent aux années 1950, lorsque Max Mathews des Bell Labs a développé le langage de programmation MUSIC-N, permettant la génération de sons en temps différé. Un des premiers synthétiseurs, Reality, développé par Seer Systems de Dave Smith, fonctionnait directement sur l'unité centrale de traitement (CPU) d'un ordinateur hôte. Ce système a atteint une latence minimale grâce à une intégration étroite des pilotes, limitant par conséquent sa compatibilité avec les cartes son Creative Labs. Alpha Syntauri de Syntauri Corporation représentait un autre synthétiseur logiciel pionnier. Fonctionnant sur l’ordinateur Apple IIe, il a utilisé une approche hybride logicielle et matérielle pour générer une synthèse additive. Certains systèmes intègrent du matériel dédié pour atténuer la charge de traitement sur le processeur hôte, illustré par le système Kyma de Symbolic Sound Corporation et les systèmes Creamware/Sonic Core Pulsar/SCOPE, qui alimentent collectivement une suite complète d'instruments de studio d'enregistrement, d'unités d'effets et de mixeurs. La capacité de créer des arrangements MIDI complets exclusivement dans un logiciel informatique permet aux compositeurs de restituer le résultat final directement sous forme de fichier audio.
Musique dans les jeux
Avant le milieu des années 1990, les disquettes constituaient le principal support de distribution des jeux compatibles avec les PC IBM. La nature compacte des fichiers MIDI en a fait une méthode pratique pour fournir des bandes sonores de jeux. Avant l'avènement de Windows 95, les jeux utilisaient couramment des cartes audio Ad Lib ou Sound Blaster. Ces cartes utilisaient la synthèse FM, une technique qui produit du son en modulant les ondes sinusoïdales. John Chowning, l'innovateur de cette technique, a postulé que la technologie pouvait reproduire avec précision n'importe quel son avec un nombre suffisant d'ondes sinusoïdales ; cependant, la plupart des cartes audio informatiques implémentaient la synthèse FM en utilisant seulement deux ondes sinusoïdales. Cette limitation, associée aux capacités audio 8 bits des cartes, produisait une qualité sonore souvent qualifiée d'"artificielle" et de "primitive".
Par la suite, des cartes filles à table d'onde sont devenues disponibles, offrant des échantillons audio comme alternative à la synthèse FM. Bien que coûteuses, ces cartes incorporaient fréquemment des sons dérivés d'instruments MIDI très réputés, tels que l'E-mu Proteus. Au milieu des années 1990, l'industrie informatique est passée aux cartes son basées sur des tables d'ondes offrant une lecture 16 bits ; cependant, un stockage standardisé de 2 Mo de table d'ondes s'est avéré insuffisant pour accueillir des échantillons de haute qualité de 128 instruments General MIDI et des kits de batterie associés. Pour optimiser la capacité de stockage limitée, certains fabricants stockaient des échantillons de 12 bits, qui étaient ensuite étendus à 16 bits lors de la lecture.
Applications diverses
Malgré son association principale avec les instruments de musique, le MIDI est capable de contrôler tout appareil électronique ou numérique équipé pour interpréter et traiter les commandes MIDI. Par conséquent, le MIDI a été adopté comme protocole de contrôle dans divers domaines non musicaux. Par exemple, MIDI Show Control utilise des commandes MIDI pour gérer les systèmes d'éclairage de scène et lancer des événements synchronisés dans les productions théâtrales. Les visual jockeys (VJ) et les platines utilisent le MIDI pour repérer les clips et synchroniser l'équipement, tandis que les systèmes d'enregistrement l'exploitent pour la synchronisation et l'automatisation. Wayne Lytle, le fondateur d'Animusic, a développé un système nommé MIDIMotion, qu'il a utilisé pour créer la série Animusic d'albums vidéo musicaux animés par ordinateur. Animusic a ensuite développé un logiciel d'animation propriétaire, Animotion, spécialement conçu pour MIDIMotion. Apple Motion facilite également un contrôle comparable sur les paramètres d'animation via MIDI. De plus, le jeu de tir à la première personne MIDI Maze de 1987 et le jeu vidéo de puzzle Atari ST de 1990 Oxyd utilisaient tous deux le MIDI pour les réseaux informatiques.
Périphériques MIDI
Normes de connectivité et d'interface
Spécifications du connecteur DIN
Selon la norme MIDI 1.0 d'origine, les câbles se terminent par un connecteur DIN à cinq broches à 180° (DIN 41524). Les implémentations standard n'utilisent que trois des cinq conducteurs : un fil de terre (broche 2) et une paire équilibrée de conducteurs (broches 4 et 5) responsables de la transmission du signal MIDI sous forme de courant électrique. Cette configuration de connecteur spécifique prend en charge la transmission unidirectionnelle des messages, nécessitant un deuxième câble pour la communication bidirectionnelle. Certaines applications propriétaires, telles que les contrôleurs de pédale à alimentation fantôme, utilisent les broches inutilisées pour la transmission de puissance en courant continu (DC).
Les opto-isolateurs maintiennent l'isolation électrique entre les appareils MIDI et leurs connexions, empêchant ainsi les boucles de masse et protégeant l'équipement contre les pics de tension. Compte tenu de l'absence de capacités de détection d'erreurs au sein du MIDI, la longueur de câble maximale recommandée est limitée à 15 mètres (49 pieds) pour atténuer les interférences potentielles.
Connecteur mini-jack TRS standard
Pour optimiser l'espace, certains appareils MIDI, en particulier les modèles compacts, ont adopté l'utilisation de connecteurs téléphoniques TRS 3,5 mm, également appelés connecteurs mini-jack audio. Son adoption généralisée a incité la MIDI Manufacturers' Association à standardiser sa configuration de câblage. Le document sur les normes MIDI sur mini-jack préconise en outre l'utilisation de connecteurs de 2,5 mm plutôt que de 3,5 mm pour atténuer l'ambiguïté potentielle avec les interfaces audio.
Par port
En règle générale, les appareils MIDI ne répliquent pas les messages entrants sur leurs ports de sortie. À l'inverse, un type de port distinct, appelé port thru, duplique toutes les données reçues à l'entrée, facilitant ainsi la transmission des informations aux instruments suivants dans une configuration en guirlande. L’inclusion de ports thru n’est pas universelle sur tous les appareils ; de plus, les unités incapables de générer des données MIDI, telles que les processeurs d'effets et les modules de sons, peuvent omettre complètement les ports de sortie.
Appareils de gestion
La connexion séquentielle d'appareils MIDI dans une guirlande introduit une latence cumulative du signal. Cette latence peut être atténuée grâce au déploiement d'un boîtier MIDI thru, doté de plusieurs sorties, chacune délivrant une réplication identique du signal d'entrée. Une fusion MIDI consolide les entrées de plusieurs appareils dans un flux de données unifié, permettant ainsi la connexion de plusieurs contrôleurs à un seul appareil cible. Les commutateurs MIDI facilitent la sélection entre différents appareils, évitant ainsi le besoin de reconfigurations manuelles des câbles. Les routeurs MIDI intègrent ces fonctionnalités, offrant plusieurs entrées et sorties capables de diriger n'importe quelle combinaison de canaux d'entrée vers n'importe quelle configuration de sortie souhaitée. La configuration des schémas de routage peut être réalisée via un logiciel informatique, ensuite stockée dans la mémoire interne et rappelée à l'aide de commandes de changement de programme MIDI. Par conséquent, ces appareils peuvent fonctionner comme des routeurs MIDI autonomes dans des environnements dépourvus d'ordinateur hôte. Les processeurs de données MIDI remplissent diverses fonctions utilitaires et facilitent les effets spécialisés. Les exemples incluent les filtres MIDI, qui suppriment les données MIDI superflues du flux, et les délais MIDI, qui génèrent des répétitions chronométrées des données d'entrée.
Interfaces
Le rôle principal d'une interface MIDI d'ordinateur est d'établir une communication synchronisée entre un appareil MIDI et un ordinateur hôte. Bien que certaines cartes son d'ordinateur intègrent un connecteur MIDI standard, d'autres méthodes de connexion incluent le port de jeu D-subminiature DA-15, USB, FireWire, Ethernet ou des interfaces propriétaires. La prolifération des connecteurs USB au cours des années 2000 a facilité la disponibilité généralisée des interfaces de données MIDI vers USB, permettant la transmission de canaux MIDI vers des ordinateurs équipés de ports USB. Certains contrôleurs de clavier MIDI disposent de ports USB intégrés, permettant une connectivité directe aux ordinateurs exécutant un logiciel de production musicale.
La nature sérielle de la transmission MIDI introduit intrinsèquement des écarts de synchronisation. Un message MIDI standard de trois octets nécessite environ une milliseconde pour une transmission complète. Compte tenu de son architecture série, le MIDI ne peut traiter qu'un seul événement simultanément. Par conséquent, si un événement est dirigé simultanément vers deux canaux, la transmission du deuxième canal sera différée jusqu'à ce que la première soit terminée, ce qui entraînera un retard d'une milliseconde. Lorsqu'un événement est diffusé simultanément sur tous les canaux disponibles, la transmission du canal final peut subir un retard allant jusqu'à seize millisecondes. Cette latence inhérente a stimulé le développement d'interfaces MIDI dotées de plusieurs ports d'entrée et de sortie, car la distribution d'événements sur des ports distincts améliore la précision du timing par rapport au routage de plusieurs canaux via un seul port. Le phénomène d'inexactitudes de synchronisation audibles résultant d'une transmission MIDI retardée est communément appelé Slop MIDI.
Contrôleurs
Les contrôleurs MIDI sont globalement classés en deux types : les contrôleurs de performance, qui génèrent des notes de musique pour la performance, et les contrôleurs utilitaires, qui transmettent divers événements en temps réel sans nécessairement produire de notes. De nombreux appareils intègrent des fonctionnalités des deux catégories de contrôleurs.
Les claviers représentent la catégorie prédominante de contrôleurs MIDI. Étant donné que la conception initiale du MIDI donnait la priorité aux interfaces clavier, tout contrôleur sans clavier est classé comme une « alternative ». Alors que cette orientation de conception était initialement perçue comme une contrainte par les compositeurs peu enclins à la musique centrée sur le clavier, le standard a fait preuve d'une flexibilité suffisante. Par conséquent, la compatibilité MIDI a été étendue à divers types de contrôleurs, englobant les guitares, d'autres instruments à cordes, les contrôleurs de batterie, les contrôleurs à vent (qui simulent respectivement les performances d'une batterie et d'un instrument à vent) et divers appareils spécialisés ou expérimentaux. Néanmoins, certains aspects de l'interprétation au clavier, au cœur de la conception originale du MIDI, ne prennent pas pleinement en compte le potentiel expressif des autres instruments. Jaron Lanier, par exemple, identifie le standard comme un exemple de « verrouillage » technologique, restreignant par inadvertance la portée de l'expression musicale. Les extensions ultérieures du protocole ont cherché à atténuer certaines de ces lacunes identifiées.
Bien que les synthétiseurs logiciels offrent une puissance et une polyvalence considérables, certains musiciens affirment que la charge cognitive associée à la gestion à la fois d'un clavier MIDI et d'une interface informatique (clavier et souris) diminue l'immédiateté de l'expérience de performance. En revanche, les dispositifs matériels dédiés au contrôle MIDI en temps réel offrent des avantages ergonomiques et peuvent favoriser une connexion plus profonde avec l'instrument par rapport aux interfaces informatiques. Ces contrôleurs peuvent être soit à usage général, conçus pour une large compatibilité entre divers équipements, soit spécifiques à une application, conçus pour fonctionner avec un logiciel particulier. Des exemples illustratifs de ce dernier incluent le contrôleur APC40 d'Akai, optimisé pour Ableton Live, et le contrôleur MS-20ic de Korg, qui reproduit le panneau de commande de leur synthétiseur analogique MS-20. Le contrôleur MS-20ic intègre notamment des câbles de brassage, permettant le contrôle du routage du signal au sein de sa reproduction de synthétiseur virtuel MS-20, et facilite également le contrôle d'appareils externes tiers.
Instruments
Un instrument MIDI typique comprend plusieurs composants essentiels : des ports pour transmettre et recevoir des signaux MIDI, une unité centrale de traitement (CPU) pour le traitement du signal, une interface utilisateur pour la programmation, des circuits audio responsables de la génération du son et divers contrôleurs. Le système d'exploitation de l'instrument et ses sons d'usine par défaut sont fréquemment stockés dans une unité de mémoire morte (ROM).
Alternativement, un instrument MIDI peut se manifester sous la forme d'un module autonome, dépourvu de clavier de style piano. De tels modules intègrent généralement une table d'harmonie General MIDI (prenant en charge les normes GM, GS et XG) et offrent des fonctionnalités d'édition intégrées, englobant la transposition, la sélection d'instruments MIDI et les ajustements du volume, du panoramique, des niveaux de réverbération et d'autres paramètres de contrôleur MIDI. Ces modules MIDI disposent généralement d'un écran d'affichage, permettant aux utilisateurs de surveiller les informations pertinentes à la fonction actuellement active.
Synthétiseurs
Les synthétiseurs utilisent un large éventail de techniques de génération sonore. Ils peuvent être configurés avec un clavier intégré ou exister sous forme de modules sonores dédiés qui produisent de l'audio lorsqu'ils sont activés par un contrôleur externe, tel qu'un clavier MIDI. Les modules sonores sont souvent conçus pour être installés dans un système de rack standard de 19 pouces. Les fabricants proposent généralement des synthétiseurs dans des configurations autonomes et montées en rack, avec des versions équipées d'un clavier souvent disponibles dans plusieurs variantes de taille.
Échantillonneurs
Un échantillonneur est un instrument capable d'enregistrer et de numériser de l'audio, de le stocker dans une mémoire vive (RAM), puis de le lire. Les utilisateurs ont généralement la possibilité d'éditer un échantillon enregistré, de le sauvegarder sur un disque dur, d'appliquer divers effets et de sculpter ses caractéristiques en utilisant des techniques analogues à celles employées par les synthétiseurs soustractifs. Les échantillonneurs sont également disponibles dans des configurations avec clavier intégré et montées en rack. Les instruments qui génèrent des sons exclusivement via la lecture d'échantillons, dépourvus de toute fonctionnalité d'enregistrement, sont désignés sous le nom de « ROMplers ».
L'adoption généralisée des échantillonneurs en tant qu'instruments MIDI viables était à la traîne par rapport à celle des synthétiseurs, principalement en raison du coût élevé de la mémoire et de la puissance de traitement au cours de leur premier développement. L'Ensoniq Mirage, introduit en 1984, a marqué l'avènement du premier échantillonneur MIDI à faible coût. Une limitation courante des échantillonneurs MIDI réside dans leurs écrans intégrés généralement petits, qui entravent l'édition efficace des formes d'onde échantillonnées, bien que certains modèles offrent une connectivité à des écrans d'ordinateur externes pour une interface visuelle améliorée.
Boites à rythmes
Les boîtes à rythmes sont typiquement des appareils de lecture d'échantillons spécialement conçus pour la reproduction de sons de batterie et de percussions. Ils intègrent généralement un séquenceur intégré, facilitant la création de motifs de batterie et leur arrangement en compositions musicales complètes. Plusieurs sorties audio sont fréquemment fournies, permettant le routage de sons individuels ou de groupes de sons vers des sorties distinctes. De plus, les voix de batterie discrètes d'une boîte à rythmes peuvent souvent être déclenchées et jouées à partir d'un instrument MIDI externe ou d'un séquenceur dédié.
Stations de travail et séquenceurs matériels
La technologie des séquenceurs existait avant l'avènement du MIDI. Les séquenceurs analogiques utilisent des signaux CV/Gate pour le contrôle des synthétiseurs analogiques pré-MIDI. Les séquenceurs MIDI comportent généralement des commandes de transport analogues à celles trouvées sur les magnétophones. Ils sont conçus pour enregistrer des performances MIDI et les organiser en pistes distinctes, adhérant à une méthodologie d'enregistrement multipiste. Les stations de travail musicales intègrent des claviers contrôleurs, un générateur de sons interne et un séquenceur. De telles stations de travail facilitent la création d'arrangements musicaux complets, permettant la lecture via leurs capacités sonores intégrées, fonctionnant ainsi comme des environnements de production musicale autonomes. De plus, ils intègrent généralement des fonctionnalités de stockage et de transfert de fichiers.
Processeurs d'effets
Certains processeurs d'effets offrent des capacités de contrôle à distance via MIDI. Par exemple, l'Eventide H3000 Ultra-harmonizer offre un contrôle MIDI si complet qu'il peut être utilisé efficacement comme synthétiseur. De même, la Drum Buddy, une boîte à rythmes conçue sous forme de pédale, intègre une connexion MIDI, permettant de synchroniser son tempo avec des appareils tels que des pédales de looper ou des effets temporels comme des unités de delay.
Spécifications techniques
Les messages MIDI comprennent des octets de 8 bits, qui sont transmis à un débit de 31 250 (±1 %) bauds via une communication série asynchrone 8-N-1, comme illustré dans la figure ci-jointe. Le bit initial de chaque octet sert à le classer comme un octet d'état ou un octet de données, les sept bits suivants transmettant le contenu informatif.
Une connexion MIDI est capable de transmettre des données sur seize canaux distincts, désignés de 1 à 16. Un appareil de réception peut être configuré pour traiter les messages exclusivement provenant de canaux désignés tout en ignorant les autres (appelé mode omni off), ou il peut surveiller tous les canaux, contournant ainsi efficacement l'adresse du canal (connu sous le nom de mode omni on).
Un appareil polyphonique possède la capacité de générer plusieurs notes simultanément, en continuant jusqu'à ce que son seuil de polyphonie soit atteint, que les notes terminent leur enveloppe de déclin ou que des commandes MIDI note-off explicites soient reçues. À l'inverse, un appareil monophonique cessera toute note en cours à la réception de nouvelles commandes note-on.
Certains appareils de réception offrent la flexibilité d'être configurés dans les quatre permutations des modes omni off/on et mono/poly.
Messages MIDI
Un message MIDI constitue une instruction conçue pour régir une fonction particulière de l'appareil récepteur. Chaque message MIDI est composé d'un octet d'état, qui spécifie le type de message, suivi d'un maximum de deux octets de données qui encapsulent les paramètres pertinents. Les messages MIDI sont classés soit en messages de canal, qui sont transmis sur un seul canal désigné et traités exclusivement par les appareils attribués à ce canal, soit en messages système, qui sont universellement reçus par tous les appareils connectés. Les appareils de réception individuels ignorent toutes les données qui ne sont pas pertinentes pour leurs capacités opérationnelles spécifiques. Les cinq principales classifications de messages incluent Channel Voice, Channel Mode, System Common, System Real-Time et System Exclusive.
Les messages Channel Voice sont conçus pour transmettre des données de performances en temps réel sur un canal unique. Des exemples illustratifs incluent les messages note-on, qui encapsulent un numéro de note MIDI définissant la hauteur, une valeur de vélocité signifiant l'intensité de l'articulation de la note et le numéro de canal associé ; Les messages note-off, qui terminent une note sonore ; les messages de changement de programme, qui modifient le correctif d'un périphérique ; et les messages de changement de commande, qui facilitent la modification des différents paramètres d'un instrument. Les notes MIDI sont indexées numériquement de 0 à 127, correspondant aux hauteurs de C−1 à G9, avec le C§89§ central attribué le numéro de note 60. Cette plage dépasse la portée du piano standard de 88 notes de A§1011§ à C§1213§, englobant un spectre de fréquences de 8,175799 Hz à 12543,85 Hz.
Messages exclusifs au système
Les messagesSystem Exclusive (SysEx) sont utilisés pour transmettre des données relatives aux fonctions opérationnelles d'un synthétiseur, par opposition aux informations orientées performances telles que les valeurs de note ou le volume. Leur capacité à intégrer des fonctionnalités allant au-delà des dispositions de la norme MIDI de base contribue de manière significative à l'adaptabilité et à la pertinence durable du protocole. Les fabricants exploitent ces messages pour développer des commandes propriétaires, permettant un contrôle plus complet de leur équipement que ce qui est possible grâce aux contraintes des messages MIDI standard.
La MIDI Manufacturers Association attribue un numéro d'identification distinct à chaque entreprise compatible MIDI. Ces identifiants sont intégrés dans les messages SysEx, garantissant que seul l'appareil destinataire prévu traite le message, tandis que tous les autres appareils sont programmés pour l'ignorer. De plus, de nombreux instruments intègrent une configuration SysEx ID, qui permet à un seul contrôleur d'adresser de manière autonome deux appareils de modèles identiques.
Universel Les messages System Exclusive représentent une catégorie distincte de messages SysEx, conçus pour les extensions MIDI qui ne sont pas la propriété d'un seul fabricant.
Tableau de mise en œuvre
Les appareils MIDI ne prennent généralement pas en charge tous les types de messages décrits dans la spécification MIDI. Pour résoudre ce problème, le tableau d'implémentation MIDI a été standardisé par le MMA, offrant aux utilisateurs un aperçu clair des capacités spécifiques d'un instrument et de son comportement en réponse aux messages. Ce tableau est généralement inclus dans la documentation accompagnant les appareils MIDI.
Spécifications électriques
L'interface électrique pour MIDI 1.0 est structurée autour d'une boucle de courant entièrement isolée, comme le montrent les lignes rouges et bleues dans le schéma suivant :
Dans ce schéma, la désignation "DIN / TRS" signifie l'utilisation autorisée d'un connecteur DIN ou d'un connecteur téléphonique TRS.
Pour la transmission d'un 0 logique et d'un bit de démarrage, l'UART de l'expéditeur génère une basse tension. Cette action initie un flux de courant nominal de 5 milliampères, provenant de l'alimentation haute tension de l'émetteur. Ce courant se propage vers la droite le long des lignes rouges à travers le câble blindé à paire torsadée, entrant dans l'opto-isolateur du récepteur. Par la suite, le courant quitte l'opto-isolateur et retourne vers la gauche le long des lignes bleues jusqu'à l'UART de l'expéditeur, qui absorbe ensuite le courant. Les résistances R1 et R2 sont configurées pour limiter le courant et sont adaptées pour garantir une impédance équilibrée. Une diode est incorporée à des fins de protection. Ce courant active la LED et le phototransistor de l'opto-isolateur, permettant à l'UART du récepteur d'interpréter le signal, facilité par la résistance de rappel R3 connectée à l'alimentation en tension du récepteur. Bien que la spécification originale impose une alimentation de 5 volts, le récepteur et l'émetteur sont capables de fonctionner avec des niveaux de tension différents.
À l'inverse, pour la transmission d'un 1 logique, d'un bit d'arrêt ou pendant les états d'inactivité, l'UART de l'émetteur maintient une haute tension équivalente à son alimentation, empêchant ainsi tout flux de courant. Ce choix de conception permet d'économiser efficacement l'énergie pendant les périodes d'inactivité.
Extensions
La flexibilité inhérente et l'adoption généralisée du MIDI ont facilité de nombreuses améliorations de sa norme, étendant ainsi son applicabilité à des fonctions au-delà de sa portée de conception initiale.
MIDI général
Bien que le MIDI facilite la sélection des sons d'instruments via des messages de changement de programme, il ne garantit pas des affectations de sons cohérentes entre différents instruments pour un emplacement de programme donné. Par exemple, le programme n°0 peut correspondre à un piano sur un appareil et à une flûte sur un autre. Pour répondre à cette variabilité, la norme General MIDI (GM) a été introduite en 1991. GM établit une banque de sons standardisée, garantissant qu'un fichier MIDI standard créé sur un appareil produira une expérience auditive similaire lorsqu'il sera lu sur un autre. La spécification GM définit une banque de 128 sons, organisés en 16 familles, chacune contenant huit instruments associés, avec un numéro de programme unique attribué à chaque instrument. Par conséquent, une commande de changement de programme spécifique sélectionnera systématiquement le son d'instrument identique sur n'importe quel appareil compatible GM. De plus, les instruments de percussion sont attribués au canal 10, chaque son de percussion étant mappé à une valeur de note MIDI distincte.
La norme GM résout également les incohérences dans le mappage de notes. Avant GM, les fabricants avaient des points de vue divergents sur le numéro de note MIDI correspondant au do médian. GM précise définitivement que la note numéro 69 produit A440, établissant ainsi le do médian comme note numéro 60.
Les appareils adhérant à la norme GM doivent fournir une polyphonie de 24 notes. De plus, les instruments compatibles GM doivent répondre à la vélocité, à l'aftertouch et au pitch bend, ces paramètres étant définis sur des valeurs par défaut prédéfinies au démarrage. La prise en charge de numéros de contrôleur spécifiques, tels que ceux de la pédale de sustain, et des numéros de paramètres enregistrés (RPN) est également obligatoire.
Une itération simplifiée de GM, désignée sous le nom de GM Lite, est utilisée pour les appareils possédant des capacités de traitement limitées.
GS, XG et GM2
Un consensus s'est rapidement dégagé sur le fait que l'ensemble sonore de 128 instruments fourni par General MIDI était insuffisant. En réponse, Roland a présenté son General Standard (GS), qui incorporait des sons, des kits de batterie et des effets supplémentaires. GS a également fourni une commande de sélection de banque pour accéder à ces ajouts et a utilisé des numéros de paramètres MIDI non enregistrés (NRPN) pour contrôler ses nouvelles fonctionnalités. Yamaha a ensuite lancé son Extended General MIDI (XG) en 1994. XG a également développé GM en proposant des sons, des kits de batterie et des effets supplémentaires, mais il a utilisé des contrôleurs standard pour l'édition plutôt que des NRPN et a augmenté la polyphonie à 32 voix. Bien que GS et XG maintiennent une compatibilité ascendante avec la spécification GM d'origine, ils ne sont pas mutuellement compatibles. Bien qu'aucune des deux normes n'ait été largement adoptée au-delà de son créateur respectif, les deux sont fréquemment prises en charge par diverses applications logicielles musicales.
La spécification General MIDI Level 2 (GM2) a été développée en 1999 par les sociétés membres de l'AMEI japonaise. GM2 conserve une compatibilité descendante avec le General MIDI (GM) tout en améliorant ses capacités, notamment une polyphonie accrue de 32 voix, des numéros de contrôleur standardisés pour des fonctions telles que le sostenuto et la pédale douce (una corda), l'intégration des numéros de paramètres enregistrés (RPN) et des messages exclusifs au système universel, et l'incorporation de la norme de réglage MIDI. De plus, GM2 sert de mécanisme fondamental de sélection d'instrument au sein de Scalable Polyphony MIDI (SP-MIDI), une itération MIDI spécialisée conçue pour les appareils à faible consommation, permettant un ajustement dynamique de la polyphonie en fonction de la capacité de traitement de l'appareil.
La norme de réglage MIDI
Alors que la plupart des synthétiseurs MIDI utilisent généralement un accordage à tempérament égal, le MIDI Tuning Standard (MTS), officiellement ratifié en 1992, prend en charge des systèmes d'accordage alternatifs. MTS facilite les micro-accordages, qui peuvent être chargés à partir d'une banque contenant jusqu'à 128 patchs distincts, et permet la manipulation en temps réel des hauteurs de notes. Cependant, le respect de cette norme n'est pas obligatoire pour les fabricants, et même ceux qui l'adoptent ne sont pas obligés de mettre en œuvre l'ensemble de ses fonctionnalités.
Code temporel MIDI
Bien qu'un seul séquenceur puisse faire fonctionner un système MIDI à l'aide de son horloge interne, les configurations multi-séquenceurs nécessitent une synchronisation avec une source de synchronisation unifiée. MIDI Timecode (MTC), une innovation de Digidesign, répond à cette exigence en utilisant des messages System Exclusive (SysEx) spécialement conçus pour la synchronisation temporelle. MTC est capable d'effectuer une traduction bidirectionnelle avec la norme de timecode SMPTE, et des interfaces MIDI spécialisées, telles que MIDI Timepiece de Mark of the Unicorn, peuvent faciliter cette conversion de SMPTE en MTC. Une distinction clé est que l'horloge MIDI fonctionne sur le tempo, alors que le timecode est basé sur l'image et donc indépendant du tempo. Semblable au timecode SMPTE, MTC intègre des données de position et possède la capacité de récupérer après des interruptions ou des pertes de signal.
Contrôle de la machine MIDI
MIDI Machine Control (MMC) comprend un ensemble de commandes System Exclusive (SysEx) conçues pour gérer les fonctions de transport des équipements d'enregistrement matériels. Grâce à MMC, un séquenceur peut transmettre des commandes telles que Démarrer, Stop et Enregistrer à une platine cassette connectée ou à un système d'enregistrement sur disque dur. Il permet également d'avancer ou de rembobiner rapidement l'appareil pour lancer la lecture en même temps que le séquenceur. Il est important de noter que MMC lui-même n'implique pas de données de synchronisation, bien que les appareils connectés puissent réaliser une synchronisation via MIDI Timecode (MTC).
Contrôle d'affichage MIDI
MIDI Show Control (MSC) représente une suite de commandes System Exclusive (SysEx) spécialement développées pour le séquençage et le repérage à distance de divers appareils de contrôle de spectacle. Ces appareils comprennent des systèmes d'éclairage, des unités de lecture de musique et de son et des mécanismes de contrôle de mouvement. MSC trouve de nombreuses applications dans divers environnements, notamment les productions théâtrales, les expositions de musées, les systèmes de contrôle de studio d'enregistrement professionnel et les attractions des parcs d'attractions.
Horodatage MIDI
Une méthode permettant d'atténuer les imprécisions de synchronisation MIDI consiste à horodater les événements MIDI avec leurs heures de lecture prévues, à les transmettre à l'avance et à les mettre en mémoire tampon dans l'appareil de réception. Cette pré-transmission de données minimise le risque qu'un passage musical complexe surcharge le canal de communication. Lors du stockage dans le récepteur, les informations horodatées deviennent insensibles aux écarts de synchronisation inhérents aux interfaces MIDI ou USB, permettant une lecture très précise. Cependant, la fonctionnalité d'horodatage MIDI dépend de la prise en charge des composants matériels et logiciels d'un système. Historiquement, les premières implémentations, telles que MTS de MOTU, AMT d'eMagic et Midex 8 de Steinberg, étaient mutuellement incompatibles, obligeant les utilisateurs à acquérir à la fois des logiciels et du matériel auprès du même fournisseur pour un fonctionnement correct. Actuellement, les capacités d'horodatage sont intégrées aux interfaces MIDI FireWire, à Mac OS X Core Audio et au séquenceur Linux ALSA.
La norme MIDI Sample Dump
Une application inattendue des messages System Exclusive (SysEx) est apparue dans leur capacité à faciliter le transfert d'échantillons audio entre instruments de musique. Cette découverte a conduit à la création du Sample Dump Standard (SDS), qui définit un nouveau format SysEx spécifiquement pour la transmission d'échantillons. Par la suite, SDS a été amélioré grâce à l'ajout de deux commandes, permettant le transport de données de points de boucle d'échantillon sans qu'il soit nécessaire de transmettre l'échantillon audio complet.
Sons téléchargeables
La spécification Downloadable Sounds (DLS), officiellement ratifiée en 1997, fournit un mécanisme permettant aux appareils mobiles et aux cartes son d'ordinateur d'augmenter leurs tables d'ondes à l'aide d'ensembles de sons téléchargeables. La spécification DLS niveau 2 ultérieure, introduite en 2006, a établi une architecture de synthétiseur standardisée. La norme Mobile DLS intègre des banques DLS avec Scalable Polyphony MIDI (SP-MIDI) dans des fichiers Mobile XMF autonomes.
Expression polyphonique MIDI
MIDI Polyphonic Expression (MPE) constitue une méthodologie permettant aux musiciens de manipuler en continu le pitch bend et divers autres paramètres expressifs pour des notes discrètes. Cette fonctionnalité est obtenue en attribuant un canal MIDI dédié à chaque note, facilitant ainsi l'application individuelle des messages du contrôleur. Les spécifications officielles du MPE ont été officiellement publiées par l'AMEI en novembre 2017, puis par le MMA en janvier 2018. Des instruments notables, notamment le Continuum Fingerboard, le LinnStrument, le ROLI Seaboard, le Sensel Morph et l'Eigenharp, permettent aux utilisateurs de contrôler avec précision la hauteur, le timbre et d'autres nuances subtiles des notes individuelles au sein des structures d'accords.
Mécanismes de transport de matériel alternatifs
Au-delà de la transmission conventionnelle en boucle de courant de 31,25 kbit/s via un connecteur DIN, des données identiques peuvent être transmises via divers protocoles de transport matériels, notamment USB, FireWire et Ethernet.
Interfaces USB et FireWire
En 1999, le consortium USB-IF a établi un protocole standardisé pour la transmission MIDI sur USB, officiellement désigné sous le nom de « Définition de classe de périphérique de bus série universel pour les périphériques MIDI ». L'adoption du MIDI sur USB s'est considérablement répandue, en grande partie en raison de l'obsolescence des interfaces de connexion MIDI antérieures, telles que les cartes ISA et les ports de jeu, dans les systèmes informatiques personnels contemporains. Les principaux systèmes d'exploitation, notamment Linux, Microsoft Windows, Macintosh OS X et Apple iOS, intègrent des pilotes de classe natifs pour garantir la compatibilité avec les appareils adhérant à la norme « Universal Serial Bus Device Class Definition for MIDI Devices ».
Apple Computer a été le pionnier du développement de l'interface FireWire tout au long des années 1990. Cette technologie est apparue pour la première fois dans les caméras vidéo numériques (DV) vers la fin de cette décennie, puis intégrée dans les modèles Macintosh G3 en 1999. Sa conception a été spécifiquement optimisée pour les applications multimédias. Se distinguant de l'USB, FireWire utilise des contrôleurs intelligents capables de gérer de manière autonome la transmission des données, allégeant ainsi les demandes de traitement sur l'unité centrale (CPU). De plus, à l'instar des appareils MIDI conventionnels, les instruments compatibles FireWire peuvent établir une communication directe sans nécessiter un ordinateur intermédiaire.
Connecteurs XLR
Le synthétiseur Octave-Plateau Voyetra-8 représentait un des premiers exemples d'intégration MIDI, utilisant uniquement des connecteurs XLR3 au lieu du DIN standard à 5 broches. Initialement lancé avant l'adoption généralisée du MIDI, cet instrument a ensuite été mis à niveau avec une interface MIDI tout en conservant sa configuration de connecteur XLR d'origine.
Ports série, parallèle et joystick
Avec la prévalence croissante des environnements de studio centrés sur l'ordinateur, des appareils MIDI capables de se connecter directement à un ordinateur sont apparus. Ces appareils utilisaient couramment le connecteur mini-DIN à 8 broches, qu'Apple utilisait auparavant pour les ports série avant la sortie des modèles Blue and White G3. Les interfaces MIDI avancées, illustrées par le Mark of the Unicorn MIDI Time Piece, conçues comme des composants centraux de studio, exploitaient un mode de transmission à grande vitesse qui exploitait la capacité des ports série à fonctionner à vingt fois le débit de données MIDI conventionnel. Vers la fin des années 1990, certains instruments MIDI incorporaient des ports mini-DIN intégrés pour une interface directe avec l'ordinateur. De plus, certains périphériques établissaient des connexions via le port parallèle DB-25 d'un PC ou via le port de jeu DA-15, fréquemment présent sur de nombreuses cartes son de PC.
Protocole mLAN
Yamaha a lancé le protocole mLAN en 1999. Ce système a été conceptualisé comme un réseau local spécifiquement pour les instruments de musique, utilisant FireWire comme mécanisme de transport sous-jacent. Sa conception a facilité la transmission simultanée de plusieurs canaux MIDI, de l'audio numérique multicanal, des transferts de fichiers de données et des informations de timecode. mLAN a trouvé une application dans divers produits Yamaha, en particulier les consoles de mixage numériques et le synthétiseur Motif, ainsi que dans des offres tierces telles que PreSonus FIREstation et Korg Triton Studio. Cependant, aucun nouveau produit compatible mLAN n'a été introduit depuis 2007.
Interface de périphérique MIDI SCSI (SMDI)
Au cours des années 1990, l'interface de périphérique MIDI SCSI (SMDI) a été adoptée par certains échantillonneurs et enregistreurs sur disque dur, notamment le Kurzweil K2000 et le Peavey SP Sample Playback Synthesizer. Cette interface a permis un transfert bidirectionnel rapide d'échantillons vers des disques durs et des lecteurs magnéto-optiques.
Implémentations d'Ethernet et du protocole Internet
Les implémentations MIDI basées sur le réseau offrent des fonctionnalités de routage avancées et les canaux de communication à large bande passante que les alternatives MIDI précédentes, telles que ZIPI, visaient à fournir. Des systèmes propriétaires existent depuis les années 1980, certains utilisant des câbles à fibres optiques pour la transmission de données. La spécification ouverte RTP-MIDI, développée par l'Internet Engineering Task Force, a reçu un soutien important de l'industrie. Apple a intégré la prise en charge de ce protocole depuis Mac OS X 10.4, et un pilote Windows, dérivé de l'implémentation d'Apple, est disponible pour Windows XP et les versions ultérieures du système d'exploitation.
MIDI sans fil
Les systèmes de transmission MIDI sans fil sont disponibles dans le commerce depuis les années 1980. Plusieurs émetteurs contemporains facilitent le transport sans fil des signaux MIDI et OSC via les technologies Wi-Fi et Bluetooth. Les appareils iOS sont capables de fonctionner comme des surfaces de contrôle MIDI, en tirant parti des protocoles Wi-Fi et OSC. De plus, une radio XBee offre une option viable pour construire un émetteur-récepteur MIDI sans fil DIY. De même, les appareils Android peuvent fonctionner comme des surfaces de contrôle MIDI complètes, utilisant divers protocoles via Wi-Fi et Bluetooth.
MIDI 2.0
Notation ABC
- Notation ABC
- Piano numérique
- Module de batterie électronique
- Synthétiseur de guitare
- Liste des logiciels de musique
- Maquette MIDI
- MusiqueXML
- Langage des macros musicales
- SoundFont
- Format d'application mobile de musique synthétique
Remarques
Références
The MIDI Association, archivé le 19 février 2018 sur la Wayback Machine.
- L'Association MIDI Archivée le 19 février 2018 sur la Wayback Machine
- Les spécifications MIDI en anglais sont disponibles auprès de la MIDI Manufacturers Association, archivées le 1er juin 2016 sur la Wayback Machine.