Diskussion:MIDI

aus Wikipedia, der freien Enzyklopädie
Auf dieser Seite werden Abschnitte ab Überschriftebene 2 automatisch archiviert, die mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.
Archiv
Wie wird ein Archiv angelegt?

Zeit in MIDI-Dateien

Wie funktioniert das denn beim Abspielen von MIDI-Dateien, dass die Daten zum richtigen Zeitpunkt ausgewertet werden? Wenn jemand über eine MIDI-Verbindung z.B. einen Ton von 1 s Länge spielt, dann kommt, wenn ich das richtig verstanden habe, über die Verbindung ein Note-On und dann in einer Sekunde ein Note-Off. Was ist denn dazwischen? Irgendwelche Füll-Bytes oder nichts? Laut Artikel ist die Übertragungsgeschwindigkeit 31250 Bits pro Sekunde. Eine Midi-Datei ist aber nicht unbedingt so groß, wie man es anhand dieser Datenrate vermuten würde. Aber woher weiß der Computer bzw. die Soundkarte, wie lange sie den Ton beim Abspielen halten soll? 84.166.93.176 16:37, 6. Jul 2006 (CEST)

Das Abspielen und Ende einer Note (letzteres ist als note-off oder key-off bekannt) sind normale MIDI-Events. Zwischen MIDI-Events werden Zeitabstände mitgespeichert, und zwar je nach Typ der Quantisierung als Vielfaches eines Bruchteils eines Beats oder einer Sekunde. Siehe [[1]].

Hallo, man muß unterscheiden ob ein Computer bzw ein Sequencerprogramm Mididaten sendet oder ob eine Person Mididaten "sendet" bzw spielt. Der Computer hat einen Timer eingebaut. Der Mensch der an einem Midikeyboard sitzt hat sein Gehirn eingebaut. Außerdem muß man unterscheiden zwischen Eingang (MIDI-IN) und Ausgang (MIDI-OUT) von Daten. Ein Gerät das Mididaten über den MIDI-IN empfängt und diese nur in Musik verwandeln also abspielen soll braucht dafür keinen Timer. Der Tonerzeuger muß nur auf einen Midibefehl möglichst schnell reagieren. Wann der Midibefehl durch die Schnittstelle hereinkommt ist dem Tonerzeuger egal. Eine Person sitzt an einer Miditastatur und erzeugt Midinoten die über den MIDI-OUT ausgegeben werden. Diese Mididaten können von einem Sequencer über einen MIDI-IN aufgezeichnet werden. Es muß eine Geschwindigkeit bzw ein Takt (entweder vorher oder auch hinterher) festgelegt werden. Die spielende Person achtet auf das richtige Timing. Der Sequencer "mißt" die Zeit (Stichwort SMPT) die zwischen dem Aufnahmestartbefehl und den einzelnen Midibefehlen verstrichen ist und zeichnet die Zeit mit den Daten auf. Vielleicht sollte SMPT im Artikel Erwähnung finden? -- OlimilO 11:49, 4. Feb. 2010 (CET)

Ich möchte noch etwas ergänzen. Das Midiübertragungsverfahren interessiert sich nicht für die Zeit, die zwischen den Events vergeht. Beispiel: Jemand drückt die taste C', und schiebt einen Keil in die Taste. Durch das Drücken, entstehte in Telegramm mit den 3 Bytes. Jetzt kommt nichts mehr, bis man den Keil wieder aus der Tastatur nimmt. Passiert das eine halbe stunde später, passiert eine Halbe Stunde lang nichts. Der Synthi gibt den Ton (vorausgesetzt es ist ein dauerfähiger Ton, wie bei einer Orgel) dann eben eine halbe Stunde lang wieder, bis der Note_off-Befehl kommt. Natürlich können in der Zwischenzeit ander MIDI-Aktivitäten stattfinden. (nicht signierter Beitrag von 81.200.198.20 (Diskussion) 13:33, 10. Jul 2012 (CEST))

Wo werden die Midi Töne eigentlich erzeugt?

Selbst wenn man eine externe Soundkarte hat, die nur Ein- und Ausgänge bereitstellt, funktioniert die Midi-Tonerzeugung dennoch. Es wäre schön, wenn der Artikel darauf eingehen könnte, wo die Töne nun eigentlich erzeugt werden. Ist das noch standardmässig auf jeder Soundkarte installiert? Ist es in Wirklichkeit eine Software? Ist diese im Betriebssystem vorhanden und wenn ja, welche Betriebssysteme handhaben das wie. Wenn letzteres: Gibt es überhaupt noch käufliche Soundkarten/ Onboard- Soundchips, welche die Erzeugung der Midi Töne vornehmen?

Ja, SB AWE 64 kann das. Heute sind aber Sampler effektiver. Der PC ist schnell genug. Und so wird auch das MIDI im PC vertont: er hat eine Tabelle intern im GM Format und dudelt selber. Musicproducer 02:27, 9. Jan. 2013 (CET)

Bessere Qualität

Nachdem die Midi Töne auf den meisten Standard Rechnern doch recht quäkig ist: Gibt es aktuell erhältliche Software, welche die Töne in bessserer Qualität erzeugt und bei der man die Lautstärke der einzelnen Kanäle individuell regeln bzw. abschalten kann?

Ich antworte mal hier, statt es einzugügen, obwohl es für den Artikel interessant sein könnte: Das Ändern muss im MIDI-File geschehen. Es gibt aber MIDI Manager, die man zwischen den Sequenzer und den Expander schalten kann, ferner kann man das mit MIDI-CTRL-HW überlagern, indem man einen physikalischen Controller in den Datenstrom schaltet: Dieser überschreibt dann die Lautstärken. Oder, man stellt am Expander die Lautstärken in den Stimmen ein. In Windows geht das natürlich nur, wenn man entweder am Player eingreift, oder einen virtuellen Sampler wie Steinberg Reason (Propellerheads) benutzt.
Für Linux gibt es Timidity - ein MIDI-Synthesizer in Software, der mehr oder minder beliebige songenannte SoundFonts verwenden kann. Die Qualität der Ausgabe hängt damit nur von der Qualität des SoundFonts ab (und davon, dass der Rechner stark genug ist, die Datenmenge in Echtzeit zu verarbeiten).
Das entspräche dann der Nutzung einer Soundblaster AWE64/128 und Konsorten.87.166.146.247 21:57, 28. Jan. 2013 (CET)

MIDI Selber schreiben

Gibt es Midi Software, mit denen man selbst eine Midi Datei schreiben kann, indem man beispielsweise durch Setzen von Buchstaben in einem Taktraster (beim Schlagzeug nur Punkte) diese erzeugen kann? -- 84.132.104.198 14:22, 27. Okt. 2007 (CEST)

"Midi-Orchestrator Plus" konnte das u.a. Die meisten Notationsprogramme benutzen Noten und konvertieren zu MIDI. 87.166.146.247 21:57, 28. Jan. 2013 (CET)
Das können eigentlich alle. Samplitude z.B. kann das. Tonstudio96 (Diskussion) 03:04, 26. Nov. 2015 (CET)

Abschnitt Kritik

Leider finde ich keine Referenzen auf Quellen. Dabei wuerde mich das sehr interessieren. Ohne Quellen jedoch entferne ich das demnaechst. Traute Meyer 21:31, 20. Apr. 2009 (CEST)

Nicht temperierte Stimmungen, Mikrotonalität

Der Artikel behauptet, MIDI unterstütze nur die gleichschwebend zwölfstufige Temperierung. Das sehe ich anders. Mit Pitch-Bend kann man den Tonraum in sehr kleinen Schritten ausfüllen; mit einem geeigneten Front-End (z. B. MUTABOR) kann man beliebige Stimmungen realisieren. --Joachim Pense (d) 07:40, 2. Okt. 2009 (CEST)

Ich würde es anders ausdrücken: MIDI unterstützt im Grundsatz zunächst erstmal nur Halbtonschritte. Das sendende Gerät hat aber gar keine Information darüber, wie das Empfangsgerät die Tonhöhen interpretiert. Es kann sowohl eine "temperierte Stimmung haben" als auch jede andere mögliche Tonabstufung, z.B. eine "reine Stimmung". Das, was Du beschreibst, ist dagegen aus meiner Sicht ein "Workaround", der nur mit zusätzlichen Mitteln (wie von Dir beschrieben) erreichbar ist. -- NickNameX 01:59, 4. Okt. 2009 (CEST)
Ich gebe dir völlig recht mit der Bemerkung über die Interpretation der Tonhöhen. De facto unterstützt MIDI 128-tel-Halbtonschritte, man braucht halt zwei Nachrichten dafür statt nur einer. Ob man das als Workaround interpretieren soll, ist eben eine Interpretationsfrage. --Joachim Pense (d) 11:26, 4. Okt. 2009 (CEST)
(Oder sind es 64-tel Halbtonschritte? Ist zu lange her, dass ich mich damit im Detail beschäftigt habe) --Joachim Pense (d) 11:27, 4. Okt. 2009 (CEST)
Zumindest wenn im Artikel immer noch "MIDI unterstützt nur die gleichschwebend zwölfstufige Temperierung" steht (hab grad nicht nachgesehen ..), ist das auf jeden Fall schonmal NICHT korrekt. -- NickNameX 09:37, 5. Okt. 2009 (CEST)
Ich habe es jedenfalls nicht korrigiert. Statt dieses Satzes aus dem Kritik-Abschnitt sollte vielleicht etwas mehr über die Möglichekeiten von MIDI in dieser Hinsicht drinstehen. Hmmm; ich bin schon mehr als 15 Jahren aus dem Thema draußen …
Ich hab's gerade mal nachgelesen: "Schwerer wiegen Einschränkungen musikalischer Art. MIDI wurde konzipiert für die Steuerung von Synthesizern, die allesamt in derselben temperierten Stimmung betrieben werden. Für nicht-temperierte Stimmungen oder andere Skalen, als die der in der Popmusik beinah ausschließlich verwendeten 12 Halbtöne pro Oktave, ist MIDI nicht praktikabel."
Also, SO formuliert (unverändert!) finde ICH es in Ordnung. "Für nicht-temperierte Stimmungen oder andere Skalen ... nicht praktikabel"
Ich kenne kein Bühnen-Equipment, das betriebssicher und praktikabel die Pitchbend-Funktion nutzbar macht (so wie Du es eingangs beschrieben hast). PCs auf der Bühne sieht man zwar mittlerweise öfters, das ist mir aber noch zu weit weg von "praktikabel". Ich denke natürlich in Hardware ... ;-) (nicht signierter Beitrag von NickNameX (Diskussion | Beiträge) 17:03, 5. Okt. 2009 (CEST))
Liegt das am MIDI oder daran, dass einfach kein Bedarf besteht? Wenn man auf der Bühne mitteltönig will, dann stellt man halt auf dem Instrument mitteltönige Stimmung ein. Und in den Fällen, wo man tatsächlich mikrotonal oder gar in reiner Stimmung arbeiten will, dann muss man sich ja ohnehin darum kümmern, wie man einem Tasteninstrument sowas entlocken will. Die Vierteltonkomponisten anfang des 20ten Jahrhunderts haben dann halt zwei um einen Viertelton gegeneinander verstimmte Klaviere auf die Bühne gestellt, und Carlo Gesualdo, der in der Renaissance viel mit Enharmonik in reiner Stimmung arbeitete, hat sich Cembali mit kaum Bedienbaren Monstertastaturen zum Erzeugen der Nuancen bauen lassen. --Joachim Pense (d) 17:27, 5. Okt. 2009 (CEST)
Bedarf = Umsatz / Stückzahlen ? Das (zu kaufen "von der Stange") gibt es - neben der üblichen temperierten Stimmung - nur als "Oriental Keyboard". Siehe z.B. http://www.musik-schmidt.de/de/Keyboards/Oriental-Keyboards
Ansonsten bleibt's beim "westlichen" Konstrukt "Halbtonschritte". Pitchbend war gedacht / angelegt zur Simulation von Saiten ziehen, Blasinstrumente in der Tonhöhe modulieren etc. , also für (i.d.R. monophone) Solo-Instrumente. -- NickNameX 09:24, 6. Okt. 2009 (CEST)
Gequanteltes Tuning wie Vierteltöne muss man derzeit am Rechner machen und 2-kanalig ausgeben. Ich kenne aber nur einen, der das aktiv tut. Ich arbeite an einer Hardware, die das automatisert verarbeiten kann. Der allgemeinere Fall, andere Stimmungen zu verwenden - mit ebenfalls 12 Tönen - ist einfacher machbar - siehe mein Beitrag. Musicproducer 05:38, 22. Okt. 2009 (CEST)
Gesammelte Antwort zu einigen Beiträgen: Es gibt nicht nur MUTABOR, auch wenn es wohl das älteste solche Programm ist. Eine Sammlung für solche Software gibt es unter dem Lemma Mikrotuner. In den letzten 2 1/2 Jahren hat sich auch bezüglich des Computer-Einsatzes einiges getan. Ich habe mal den Querverweis gesetzt. Pitch bend unterstützt +/-8192tel einer Größe, die üblicherweise zwischen 1 und 12 Halbtönen gewählt werden kann (Standardwert: 2HT); viele Geräte interpretieren nur das erste Byte, also +/-64tel. Beim Einsatz von Pitch-Bend reduziert sich allerdings die Anzahl abspielbarer Töne pro Gerät u.U. drastisch. Autherdem setzen Hersteller (z.B. Kurzweil, getestet beim PC2R) interpolationsalgorithmen ein, was beim Mikrotuner-Einsatz hässlich klingt. Alternatv dazu gibt es MIDI Tuning (Specs gibts bei der MIDI-Organisation). (nicht signierter Beitrag von Keinstein (Diskussion | Beiträge) 22:05, 6. Aug. 2012 (CEST))
Das bedeutet ja nunmehr, daß ich gemäß dieser Abstufung auch kleinste Frequenzänderungen erzielen kann. Was aber ist die Basisfrequenz? Die ist für jeden Synthie anders! Nicht alle laufen auf 440Hz und nicht alle nutzen die gleichstufige Stimmung. Viele Synths z.B. der Virus und auch meiner sind umschaltbar auf andere Stimmungen und interpretieren die gleichen Noten anders. Klassisches Beispiel ist die reine Stimmung. Tonstudio96 (Diskussion) 03:03, 26. Nov. 2015 (CET)
MIDI wurde für Musik in Halbtonschritten konzipiert, und den numerischen Notenwerten sind auch Notennamen zugeordnet. Die Stimmung ist MIDI aber absolut egal. Ich erinnere mich, dass man beim Korg M3R (und wahrscheinlich auch anderen Tonerzeugern) die Stimmung wählen konnte; entweder die übliche Temperierte Stimmung, eine der Reinen Stimmungen oder eine benutzerdefinierte Stimmung (bei der man die die Noten in Cent-Schritten einzeln einstellen konnte). Und natürlich konnte man auch einstellen, dass unterschiedliche Manuale (oder Teile von Manualen, "Keyboard-Split") gegenüber der Normalstimmung (egal ob temperiert, rein oder frei) verstimmt wurden. Der M3R war da recht einfach auf Vierteltonmusik einzustellen.
Und was wahrscheinlich auch schon mal gehört hat: Schlagzeug. Ja, jede einzelne Trommel ist gestimmt (und bei einigen Tonerzeugern kann man diese auch selbst verstimmen). Und da hängt alles davon ab, wie das Drumkit zusammengestellt ist. Als Beispiel: ein "c" auf dem Keyboard lässt die Snare ertönen - welche auf Dis gestimmt ist. Die nächsten Tasten (cis/des, d, dis) ergeben drei Toms, gestimmt auf C/A, Gis/F und C/A eine Oktave tiefer (jeweils Resonanzfell-/Schlagfell-Stimmung...ja, eine Tom kann zwei Töne gleichzeitig spielen). Viele Schlagzeuger stimmen auch einfach nach Gefühl, ohne sich an eine temperierte, reine oder was auch immer für eine Stimmung zu halten.
Der Grund, dass man den numerischen Notenwerten Notennamen zugeordnet hat, ist nicht, dass man MIDI-Anwendern ungewöhnliche Stimmungen oder Mikrotonalität vorenthalten wollte, sondern dass man den Standardanwendungsfall so benutzerfreundlich wie möglich haben wollte. Und der ist: Geräte auspacken, Klaviatur in den Expander stecken, dort "Klavier" einstellen...und dann möchte man doch bitte beim Druck auf "C" ein "C" hören. --Klaws (Diskussion) 19:39, 22. Apr. 2020 (CEST)

"High Speed Midi" und "Ultra High Speed Midi"

Beim herumsurfen bin ich über diese Begriffe gestoßen. Teilweise war nur eine geringe Latenzzeit in einem Gerät gemeint. Anderes bezog sich direkt auf die Geschwindigkeit. zB auch im professionellen Orgelbau [2] --Franz (Fg68at) 16:10, 21. Mär. 2012 (CET)

Überarbeitung

Hallo zusammen,

ich arbeite zur Zeit an einer Überarbeitung des Artikel.

Vielleicht finde ich Hilfe zu folgende Punkten:

  • Tabelle vervollständigen
  • Sprachlich überarbeiten
  • Tabellen mit den wichtigsten RPN- und NRPN-Controllern
  • genauere Erklärung von Systemnachrichten und Real-Time-Messages
  • Bebilderung überarbeiten

Gruß --Thornard, Diskussion, 09:25, 5. Jun. 2012 (CEST)

?
Fehlt denn in den Tabellen noch etwas ?
Wie wär's mit einem Abgleich mit der Tabelle des englischen WIKI ?
MFG, NickNameX (Diskussion)
Es fehlen noch F1…F6, F9, FB und FD…FF.
Abgleich mit der englischen Wiki ist gut, aber ich hätte doch gern erst die Inhalte, die da sind, in einer akzeptablen Form. Die sprachliche Qualität ist aller unterste Schublade.
--Thornard, Diskussion, 10:30, 5. Jun. 2012 (CEST)
Zu MIDI-Befehlen oberhalb F0 findet sich einiges hier, auf Seite 29:
http://www.liontraffic.de/files/text-midistandard.pdf
MfG, NickNameX (Diskussion) 12:53, 5. Jun. 2012 (CEST)

Hallo, Leute. Ich möchte den Artikel einigermassen überarbeiten und in einigen Punkten erweitern. Ich sehe, dass euer Dialog hier sehr jung ist und wollte vorfühlen, ob wir uns irgendwie Abstimmen müssen/sollten, damit wir einander nicht in die Quere kommen. --RobTorgel (Diskussion) 11:26, 6. Jun. 2012 (CEST)

Leg los. :-) Ich halte mich dann vorerst zurück. --Thornard, Diskussion, 15:36, 6. Jun. 2012 (CEST)
Gut, ich lege. Ist aber ein ziemlicher Schinken, geht nicht auf einmal. --RobTorgel (Diskussion) 17:16, 6. Jun. 2012 (CEST)
Konkret hab ich erstmal versucht, die Einleitungsdefinition abzutrennen, damit es kleinere Portionen werden. Ich überleg nur, ob ich nicht besser den ganzen Artikel erst in meinem Bereich aufbauen soll und nicht direkt im ANS werken. Wahrscheinlich besser und vermeidet inkonsistente Zwischenzustände im Artikel. Heut mach ich jedenfalls nix mehr. Gruß, bis dann --RobTorgel (Diskussion) 20:31, 6. Jun. 2012 (CEST)
Wenn du den Artikel erst in deinem Bereich aufbaues bekommst du ihn nicht mehr eingebaut. Arbeite einfach und arbeite dich Schritt für Schritt durch. Ich habe gerade weiter Doppelungen entfernt und Absätze neu formuliert. Mache dich da mal keine Sorgen. Dein Einleitungssatz finde ich schon super. Gruß --Thornard, Diskussion, 21:37, 6. Jun. 2012 (CEST)

Hallo Ron,

danke, dass du dich mit dem Artikel beschäftigst. Aber ich bitte dich, das du dich an die vorhandene Gliederung hältst und nicht alles neu schreibst. Wenn du eine andere Gliederung möchtest, dann solltest du die erst hier diskutieren. Bitte überarbeitet auch den neuen Abschnitt zum MIDI-Time-Code. Denn was ist ein 1/4-Frame-Advances? :-)

Gruß --Thornard, Diskussion, 21:30, 7. Jun. 2012 (CEST)

Gliederung

Ich hab gern eine Gliederung, die vom Laien-->Fachmann abgestuft ist. Die Unterscheidung MIDI/AUDIO ist elementar und und für Laien nach wie vor oft ein Problem. Und mit der prinzipellen Funktionsweise dazu ist dann der Laie erstmal mit der grundlegen Kenntnis, was denn MIDI sei, versorgt. Erst danach würde ich in die Tiefe und ins Detail gehen wollen. Aber gut, Dein Artikel. Keine Angst, ich schreib' das Zeug kein zweites Mal rein. --RobTorgel (Diskussion) 07:37, 8. Jun. 2012 (CEST)

Hallo Rob, das ist aber eigentlich eine Gute Idee. Für eine Oma-taugliche Version bin ich grundsätzlich auch zu haben. Auch ist das nicht mein Artikel. :-) Ich habe den vor einer Woche zum ersten mal gesehen. Ich habe eher im Bereich Orgel gearbeitet. Vielleicht ist mein Anspruch auch daher so hoch. :-) Ich bin über Aeolus (Software) an den Artikel geraten. Und MIDI hat leider sehr viele Mängel. Er ist ein Flickenteppich einzelner Autoren und vieles doppel und dreifach beschrieben. Ich habe bisher versucht möglichst zu kürzen und dinge auszuformulieren.
Ich glaube aber nicht, dass zur Einführung der genaue Aufbau des Protokolls nötig ist und wie die einzelnen Dinge intern funktionieren. Eigentlich sollten die Absätze "Funktionsweise" und "Einsatzbereiche" für eine Einführung ausreichen. Auch sind einige Überschriften verlinkt (siehe auch das Kommenter auf meiner Diskussionsseite). Lasse dich nicht entmutigen. Versuche die Absätze "Funktionsweise" und "Einsatzbereiche" mal omatauglich zu machen ohne Fachbegriffe, englische Begriffe oder einzelheiten zu Technik und Protokoll. Lieben Gruß --Thornard, Diskussion, 08:50, 8. Jun. 2012 (CEST)

Synchronisation

Ich habe den Abschnitt erweitert. Ich bin nur nicht sicher, ob das in dieser Form (und das ist nur oberflächlich) nicht überladen ist. Ich musste den Schrott ja mal ausprogrammieren, aber für Otto Normal ist das doch im Detail unisant, der klickt mit der Maus auf Clock oder MTC und aus. Meinungen ? --RobTorgel (Diskussion) 14:37, 8. Jun. 2012 (CEST)

Weitere Details

Die spezial SysEx-es mit Texten, Copyright, CuePoints und was weiss ich, brauchen wir das ? --RobTorgel (Diskussion) 14:37, 8. Jun. 2012 (CEST)

Vor- und Nachteile

  • Wahrscheinlich reine Geschmacksache: Dank MIDI vielleicht Durch MIDI ?
  • synthetisiert wird als eines der ersten das Schlagzeug (weil das dann gleichzeitig den Click-Track darstellt). Aber ist das für den Laien interessant ?

--RobTorgel (Diskussion) 10:57, 11. Jul. 2012 (CEST)

Bug in digitaler Darstellung

Im Abschnitt "Nachrichtentypen" sind hexadezimale Zahlen dargestellt, die sich auf ein einzelnes Byte (=8 Bit) [hier: Datenbyte] beziehen. Daher ist die Notation "...8016 bis FF16..." (die Ziffern '16' jeweils tiefgestellt) falsch, da solch eine Indikation sich auf 16-bit-Zahlen bezieht. Richtig muss es heissen: "...808 bis FF8...", wobei die jeweils letzte 8 der beiden Zahlen tiefzustellen ist. --87.161.87.165 19:57, 10. Nov. 2012 (CET)

Ich glaube, die tiefgestellte 16 soll tatsächlich nicht auf 16-Bit-Zahlen, sondern auf das Hexadezimalsystem hindeuten. --84.60.198.71 23:24, 6. Dez. 2012 (CET)

Latenzproblem wird nicht korrekt dargestellt

Der Abschnitt "Latenz" ist sachlich wie fachlich schlichtweg falsch!

Eine Note benötigt für das Auslösen DREI 8-Bit-Byte, d.h das sind demnach 3 x 8 x 32 µs = 768µs. Knapp 0,8ms für eine einzige Note! Spielt ein Keyboarder beispielsweise 8 Noten, ergibt sich schon ein Wert von über 6ms.

Wo kommt die Acht her? Geht es hier nicht um die serielle Übertragung auf der Leitung? Also, nochmal richtig nachgerechnet sind es 960µs für die erste Note, dann 640µs für jede weitere. Das Ergebnis ist dann unter 6ms, nicht über. --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)

Kommen beispielsweise Controllerdaten hinzu, erhöht sich der Wert signifikant. Und das gilt schon für eine einzige Schnittstelle. Werden beispielsweise mehrere Instrumente per Midi übertragen wie im SMF-Format, überschreitet die Midi-Latenz sehr schnell die 11ms-Schwelle, die gemeinhin als Hörschwelle für Zeitverzögerungen wahrgenommen wird. Wobei gute Musiker deutlich unter diesem Wert von 11ms Zeitverzögerungen wahrnehmen und bewußt spielen können.

Auch ist der Übertragungsweg entscheidend: Bei Übertragung über eine Firewireschnittstelle für eine extere Midi-Ansteuerung hat ein Test aus der Fachzeitschrift Keys (Januarausgabe 2006) eine durchschnittliche Latenz von 18ms ergeben. Das sind musikalisch sehr relevante Lantenzzeiten.

Bei der internen Midi-Übertragung auf einen Software-Synthesizer treten zwar Verzögerungseffekte durch eine Schnittstelle nicht bzw. kaum auf, dafür aber relevante Latenzzeiten durch die Verwendung der Soundkarte (und ggf. einer DAW-Software mit Plugins), ohne die es ja nicht möglich ist, einen Ton zu hören.

Von daher müssen auch diese Verzögerung mit eingerechnet bzw. im Artikel erwähnt werden, da das Midi-Protokoll ja bei zeitkritischen Anwendungen eingesetzt wird. Und genau das sind Probleme, die bei vielen - zumindest professionellen - Musikproduktionen auftreten. Und das betrifft keineswegs nur die exzessive Verwendung von System-Exclusiv-Daten. Von daher kann man das Problem nicht so einfach nur auf den reinen Midi-Bereich beschränken. (nicht signierter Beitrag von 79.217.166.123 (Diskussion) 10:54, 4. Jan. 2013 (CET))

Naja, Kollege, falsch ist da schon deswegen nix, weil keine konkrete Latenzzahlen angegeben sind. Das geht auch schlecht, denn es hängt vom Material ab, ob man 2 oder 3 Bytes f. Note-On/Off benötigt. (Deine 8 Keyboardnoten haben nur beim ersten Ton (wenn) 3 Bytes, sonst 2).
Bei den Wave-Samplern ist da auch nicht ganz so. Die arbeiten ja nicht wie der Mediaplayer durch Buffer-füllen-und-dann-zum-DA, sonder legen die Dig-Daten direkt an den DA. (Anders bei mixed Audio/Midi wo du tatsächlich das pre-load-Offset einstellen kannst bzw. musst).
Das grindige interne/externe Software Latenzen produzieren kann, ist klar, aber darauf kannst du im MIDI Artikel nicht eingehen. --RobTorgel (Diskussion) 11:33, 4. Jan. 2013 (CET)

Na gut, dann nehmen wir den Abschnitt mal Satz für Satz unter die Lupe: "Die Geschwindigkeit der MIDI-Schnittstelle ist vom technischen Standpunkt überholt, was in der Praxis jedoch selten eine Rolle spielt."

Der erste Teil des Satzes ist völlig korrekt. Der zweite eine undefinierte Aussage, denn

a) bei WEM spielt in der Praxis die Midi-Geschwindigkeit keine Rolle? Bei Profis sehr wohl - sowohl im Studio als auch Live. Oder ist der Laie, der womöglich ein Saxofon von einer Gitarre nicht unterscheiden kann, die Referenz?

b) es ist abhängig vom angesteuerten Sound. Für langsam anschwellende Streicher ist die Midi-Latenz definitiv unerheblich. Bei Drums und Percussionsinstrumenten oder einem funky Clavinet hingegen sehr wohl.

c) es ist abhängig vom Musikstil. Sicher benötigen percussive Musikstile wie Techno oder Hip Hop eine genaue zeitliche Übertragung, wohingegen vielleicht Esoterik-Entspannungsmusik die deutlich weniger benötigt.

d) es abhängig ist von der Anzahl der Noten/Daten und der Anzahl der Midi-Kanäle. Wie du schon richtig festgestellt hast, werden drei Bytes für die erste und zwei für die folgenden Note-On-Befehle benötigt, aber nur, WENN nicht auf einem anderen Kanal gleichzeitig Daten über dieselbe Schnittstelle übertragen werden.

Hier ergibt sich die Problematik, daß die Midi-Latenz jedesmal schwankt und deshalb - zumindest beim Live-Spielen - nicht ausgeglichen werden kann. Das spielt aber durchaus eine ganz große Rolle, wenn ein Keyboarder mehrere Soundmodule gleichzeitig ansteuert, die über eine einzige Schnittstelle vom Masterkeyboard aus auf verschiedenen Midi-Kanälen angesteuert werden.

Beispielrechnung: 1 Masterkeyboard, das vier Klangerzeuger auf vier verschiedenen Midi-Kanälen ansteuert, dazwischen ist ein Midi-Splitter geschaltet oder die Klangerzeuger sind per Midi-Thru verbunden, was wir mal nicht in die Rechnung mit einbeziehen wollen. (Abgesehen davon, daß nicht mehr als drei Klangerzeuger auf diese Weise verschaltet werden sollten...)

Die Anzahl an Geräten, die man per MIDI-Thru hintereinander hängen kann, hängt davon ab, wie viel Mühe sich der Hersteller bei der Konstruktion der Thru-Schaltung gegeben hat. Die Verzögerungen durch den Treiber liegen im Bereich unter 25ns und sind vernachlässigbar gegenüber der Verzögerungen durch den Optokoppler. Im Idealfall sind TPLH und TPHL des Optokopplers gleich und es treten keine Signalverzerrungen auf und man kann mehrere hundert Geräte auf diese Art anschließen, bevor man etwas merkt (TPLH und TPHL < 2µs). Problematisch wird es, wenn der Hersteller seine Hausaufgaben nicht gemacht hat und TPLH von TPHL abweicht. Beispiel: der Hersteller hat einen falschen Widerstand gewählt und nun ist TPHL 0,6µs und TPLH 1,5µs - eine Differenz von 0,9µs. Spätestens wenn man 18 dieser Geräte hintereinander schaltet, wird das letze Gerät garantiert nichts mehr verstehen. Bei den neun Geräten davor kann es zu Problemen kommen. Die ersten acht Geräte in der Kette ist das Signal noch verständlich.
Viel schwerwiegender ist aber die Gefahr, dass eins der MIDI-Kabel defekt ist oder eine DIN-Steckverbindungen versagt. Bevor man auf die lustige Idee kommt, sein MIDI-Signal auf der Bühne 18 MIDI-Kabeln mit 36 DIN-Steckern anzuvertrauen, sollte man in einen aktiven Verteiler investieren. Der braucht auch keinen Optokoppler und die Elektronikkomponenten für einen Verteiler mit 18 Ausgängen kostet unter 5€ (das 19"-Gehäuse und die 19 DIN-Buchsen bringen den Preis dann allerdings auf über 50€). --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)

Der Musiker drückt einen Ton, das sind dann: 4 Midikanäle 3 Bytes für Note-On-Befehle Also: 4 x 3 x 8 x 32 µs =3,072ms! Für EINE EINZIGE NOTE!!!

Stacking benötigt, unabhängig von der Anzahl der angeschlossenen Tonerzeuger, einen einzigen Kanal. Und wieder die komische Acht...ich komme wieder auf 0,96ms für die "einzige Note" (oder 0,64ms, falls es doch noch nicht die allererste Note ist, die der Musiker spielt). --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)

Nun drückt der Musiker mal 6 oder gar 8 Töne - da läßt der Schrammel-Gitarrist grüßen, das hört auch der Laie, daß die Töne nicht gleichzeitig von den Klangerzeugern abgegeben werden. Die Tasten müssen dazu nicht einmal völlig gleichzeitig vom Musiker gedrückt werden, auch so kommt es zum Midi-Stau.

5,12ms für die acht Töne. Nicht schlecht, wenn man mal davon ausgeht, dass auch ein guter Pianist gerade mal eine Abweichung von 7ms zwischen erster Note und achter Note erreicht. Aber immerhin wurde ich somit aufgeklärt, dass Liu Shikun kein Schimmel-, sondern ein Schrammel-Piano spielt. Oh weh! --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)

Controllerdaten und insbesondere Systemexclusiv-Daten sind auch im Live-Betrieb - je nach Gerätschaft - ein echtes, gravierendes Problem. Ein Beispiel wäre hier, über einen Masterkeyboard-Controller Filter oder Effekte in einem Klangerzeuger anzusteuern. Exzessiv müssen die Daten gar nicht eingesetzt werden, denn es liegt ja in der Natur des Protokolls, daß diese Daten umfänglich sind.

Im Studio ebenfalls: Per Systemexclusiv-Daten werden Sounds im Klangerzeuger verändert. Am besten wird dazu dann noch ein rhythmisches Muster per Controller auf die Lautstärke angewandt. Es treten Verzögerungen auf, die man deutlich hört.

Das ist so nicht richtig. Gerade bei Studionutzung im offline- Mode bekommt man das Latenzproblem bestens und rückstandsfrei in den Griff, wenn man es richtig macht. Ein Problem besteht bei live und dann deshalb, weil unterschiedliche Noten zu unterschiedlichen Latenzen führen.

Diese Beispiele sind keineswegs abgedrehte theoretische Beispielfälle, sondern ganz typische Probleme, die man entweder im Live-Betrieb so gut es geht ignoriert oder im Studio anders löst, indem man Sequenzen dann doch als Audio-Datei aufzeichnet und passend macht.

Damit hat sich der Satz sicher auch erledigt: "Dieser Nachteil fällt nur in wenigen Fällen bei der Musikproduktion auf."

"Werden MIDI-Daten live eingespielt, reagiert das Gerät in Echtzeit mit der für die MIDI-Datenstrecke typischen Verzögerung im Microsekundenbereich." Wie ich oben vorgerechnet habe, sind das Millisekunden, nicht Mikrosekunden. Eine typische Verzögerung gibt es ja gar nicht, sondern typisch für Midi sind die schwankenden Latenzen.

"Eine hörbare, durch MIDI verursachte Verzögerung tritt normalerweise auf, wenn zuviele MIDI Daten auf einmal übertragen werden sollen, und normalerweise nur bei externen Klangerzeugern (also nicht bei der Nutzung von Plugins), wie in den folgenden Beispielszenarien:" Falsch. Wer beispielsweise im Live-Betrieb Plug-Ins ansteuert, benutzt dafür Controller - anders geht es ja nicht! Der Controller hat in der Regel nur einen Midi-Ausgang, sofern er nicht über eine andere Schnittstelle (USB usw.) an den Rechner, der die Plug-Ins zur Verfügung stellt, ansteuert. Und da treten dann andere Probleme auf...

"1. In Verbindung mit der exzessiven Verwendung von System Exclusive Daten: Dieser Typ von Daten belegt weit mehr als die typischen drei Bytes (1 Statusbyte und 2 Databytes)." Wie ich schon schrieb, können ebenfalls Controller ein Problem sein. Und die Anzahl der Midi-Kanäle, die über eine Schnittstelle übertragen werden. Ein gutes Beispiel hierfür sind die eiernden "Japaner-Bands", also die mit Midi-Files gefütterten Tanzmusikerautomaten.

"2. Bei der Verkettung mehrerer Hardware-Klangerzeuger über software-gepufferte MIDI-Thru-Verbindungen: Diese Verzögerung wird durch das Kopieren der am MIDI In eintreffenden Daten auf den MIDI Thru - Port verursacht und ist somit eher ein herstellerspezifisches als ein MIDI - typisches Problem." Die Midi-Thru-Schnittstelle ist eben so definiert, daß sie durch das Kopieren der eingehenden Daten der Midi-In-Schnittstelle versorgt wird. Das ist also ein System-Problem dieser Schnittstelle - also Midi - an sich! Daß das durch eine schlampige Arbeit diverser Hersteller noch verstärkt wird, ist eine ganz andere Baustelle - aber gut, daß das immerhin hier erwähnt wird.

Daß der Abschnitt im Artikel Müll ist, sollte nun wohl klar sein. Wer es immer noch nicht glaubt, sollte unbedingt einen Guitar-to-Midi-Converter antesten...live - bitte! Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.170.34 (Diskussion) 12:27, 5. Jan. 2013 (CET))

Gut, ich nehme an, du wirst den Abschnitt aus dem Müllzustand befreien. Bedenke nur: Keine Brandreden, keine Polemik.

Btw: den git-midi-converter lass lieber aus, der hat kein midi-problem, sondern ein problem mit der Conversion, wie du wohl weisst --RobTorgel (Diskussion) 13:01, 5. Jan. 2013 (CET)

Das überlasse ich lieber Leuten, die das wikipediakonform darstellen können. Das Problem habe ich aufgezeigt.

Der Guitar-to-Midi-Converter hat nicht nur Probleme mit der Wandelung, da hast du recht, sondern vor allem mit der Fülle an Controller - besser: Pitch-Bend-Daten. Dünnst du sie aus, bekommst du kein sauberes Bending mehr hin.

Gut, daß du das Wandelungs-Problem ansprichst. Dasselbe gilt natürlich auch für Drum-Triggering, wobei auch hier Midi_Latenzen wirklich zum Problem werden können, wenn über eine Midi Leitung mehrere Sounds angesteuert bzw. gestackt werden.

Unterschlagen wollen wir hierbei auch nicht, daß ebenfalls die Klangerzeuger für eine hörbare Verzögerung beitragen können.

Das Problem mit dem Midi-Timing läßt sich aber auch recht eindrucksvoll zeigen, indem man Blockakkorde live (!!!) einspielt und per Midi und Audio gleichzeitig aufnimmt und dann abspielt. Da hört man dann deutlich einen Flanging-Effekt, also einen Kammfiltereffekt. Wenn es blöde läuft, verändert sich mit jedem Abspielen dieser Effekt. Woran das genau liegt, weiß ich nicht, das kann auch mit an der Recording-Software liegen, ggf. an Interfaces (Stichwort Steinberg LTB-Technologie oder Motu MTS-Technologie) oder auch an den Klangerzeugern.

Auch das gehört eigentlich in den ganzen Komplex der Midi-Latenz-Problematik, denn Midi-Latenz ist ja kein isoliertes Problem, sondern vor allen Dingen ein Systematisches.

Ich denke, es ist auch Aufgabe eines Nachschlagewerkes, den Komplex als solches in GROBEN Umrissen darzustellen. Sicher braucht man dazu nicht darauf eingehen, Probleme beim Triggering zu erklären, weshalb Klangerzeuger Verzögerungen auslösen können oder Softwareprobleme detailiert auszubreiten.

Aber erwähnen, daß diese Probleme mit eine Rolle spielen, muß man wohl. Schließlich kann man ja Midi nicht rein technisch außerhalb dessen befördern, wozu es ja eigentlich erfunden wurde: Als Hilfsmittel für Musikgeräte, und der Name Musik steht ja schon im Protokollnamen. Und da Musik zeitkritisch ist, kann man das nicht weglassen. Das wäre ein Auto ohne Räder.

Bleibt im Ganzen auch noch zu erwähnen, daß auch Timecode für Verzögerungen verantwortlich sein kann, wenn ihn ein Klangerzeuger für einen synchronisierten Sound (z.b. wenn ein Filter sich im Takt verändern soll) benötigt.

Da gibt es dann noch Ergänzungen für den Abschnitt "Reduzierung der Latenz":

- 4. Wird MTC oder Midi-Clock für eine Synchronisation mit anderen Gerätschaften verwendet, dürfen für eine gute Synchronisation auf diesem Midi-Port keine anderen Daten gesendet werden.

- 5. Verwenden von professionellen Midi-Interfaces für die Anbindung von externen Masterkeyboards und Klangerzeugern. Herstellerspezifische Lösungen können Latenzen verringern.

- 6. Einzelne Instrumente "freezen", d.h. die Midi-Instrumente auf eine Audio-Spur überspielen.

Bei Punkt 2 ist kritisch anzumerken, daß das Vorziehen durchaus das Timing verändern kann. Also darf man nur Daten ändern, die nicht für das Timing relevant sind. Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.189.244 (Diskussion) 09:26, 6. Jan. 2013 (CET))

Tja, Kollege, wir sollen hier andererseits kein How-To verfassen. Im Detail brauchst du mich von Wenigem zu überzeugen, ich arbeite seit '85 mit MIDI und kenn die Vor- und Nachteile ganz gut. Guitar-to-Midi ist für mich kein Thema, das ist nice, wenn du nur Gitarre kannst und willst aber die Streicher einspielen. Das wird aber so oder so nix, wenn man mich fragt.
Es bleibt in der Summe, dass MIDI ein inzwischen ungerechtfertigtes Artefakt der ursprünglichen Möglichkeiten ist, das durch die Verbreitung aber offenbar nicht umzubringen ist.
Wie gesagt, ein Vademecum für prof. Studioarbeit soll und kann es aber nicht werden. --RobTorgel (Diskussion) 09:54, 6. Jan. 2013 (CET)

Gut, dann soll das jemand so umformulieren, daß es kein How-to ist, das dürfte doch für eingefleischte Wikipedianer ein Leichtes sein. Ich schreibe zu diesem Themen hier gar nichts in Artikel, weil der Jargon, den ich benutze, von nicht aus der Szene kommenden ganz schnell mißverstanden werden. Löschorgien dürfen andere vorbereiten, bitte ohne mich, mir geht es um den Inhalt und nicht darum, wann welches Wort weshalb wie verdreht oder gegen eine der 349560807 Wikipedia-Normen möglicherweise verstossen kann. Deshalb dikutiere ich.

Studioarbeit kann man sowieso nicht in Büchern lernen, abgesehen davon, daß die meisten, die ein "Studio" betreiben, sowieso keine Ahnung und keine Ohren haben. Irgendwer aber muß ja auch den Schrott kaufen, den die MI in Massen herstellt...ist aber nicht das Thema hier...

Stichwort "Guitar-to-Midi": Da ist ebenfalls ein sehr mißverständlicher Satz im Artikel unter "Einsatzbereiche": "Beim Spielen einer Gitarre, deren Töne in MIDI-Daten gewandelt wurden, erklingt aus dem angeschlossenen Klangerzeuger anstatt des Gitarrenklangs ein anderer gewünschter Sound."

Das ist natürlich hirnverbrannter Schwachsinn. Seit wann erklingen in einem per Midi angesteuerten Gerät Gitarrenklänge nur deshalb, weil man das Gerät mit einer Gitarre ansteuert? Und die Gitarre selbst klingt dann nicht mehr wie eine Gitarre - oder wie ist das zu verstehen? Oder ist sie gar stumm geworden, die Gitarre?? Oder darf kein Gitarrenverstärker eingesetzt werden???

Der nächste Satz: "Der Gitarrist wird so zum Streicher, Pianisten oder Blechbläser, wobei die Besonderheiten in der Spielweise einer Gitarre in Verbindung mit dem eingestellten Zielsound bisweilen recht ungewöhnliche Effekte hervorrufen."

O Graus! Was für falsche Vorstellungen! Natürlich wird kein Gitarrist zum Streicher, nur weil er per Midi einen Streichersound ansteuert. Einen Autoreifen kann ich auch midifizieren, drum ist der noch lange kein Streicher, nur weil er dann einen Streichersound ansteuert. Das ist wirklich unterstes Niveau. Und ob der Wikipedia-konform ist, wage ich auch zu bezweifeln.

Ganz kurz: Gitarre: 6 Saiten, 6 Töne. Pianist: 10 Finger, damit sind auch mal 11 oder gar 12 Töne spilebar. Clusterklänge: Wie macht die bitte der Midi-Gitarrist? Mag sich jemand mal darum kümmern...

Bei den klassischen "Clusterklängen" stehen die einzelnen Noten in festen Verhältnissen zueinander; da reicht es also aus, wenn nur der Basisnotenwert übertragen wird (640µs). Das Problem hatte man übrigens schon bei den Analogsynthesizern gelöst - das CV-Interface konnte immer nur einen einzigen Tastendruck zu einer Zeit übertragen. Ich erinnere mich an achtstimmige Clusterklänge, mikrotonal (also keine langweiligen Halbtonschritte), sowohl über das analoge CV-Interface wie auch über MIDI (640µs). Und der berüchtigte "128-Noten-Cluster" lässt sich auch innerhalb von 640µs übertragen...aber da würde ich lieber den 132-Noten-Cluster wählen, dauert genau so lang und erscheint mir musikalisch sinnvoller. Und der klassische Clusterklang ist ja die Hängetom; die spielt bei einem Anschlag auch immer zwei Töne gleichzeitig...das ist jetzt nichts aufregendes. --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)

Im Artikel wird mir auch das, was du jetzt angesprochen hast, viel zu wenig dargestellt: Der heutige Einsatz von Midi. Nämlich als Degradierung zum reinen Steuerprotokoll für Lichtpulte, Mischpultcontroller und deren Pedants in der Recordingsoftware. Mit einem Musikinstrument habe diese Dinge - in der Regel - gar nichts zu tun (Musical Instrument Digital Interface).

So, ich glaube, das reicht jetzt auch völlig, um den Artikel zu korrigieren. Grüße! Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.189.244 (Diskussion) 14:08, 6. Jan. 2013 (CET))


Gut. Btw: Du solltest bei deinen Rechenbeispielen daran denken, dass 1 Byte 10 Bit benötigt.
Gewissermaßen private Frage: Welche Anwendung von MIDI ist dein Hauptgebiet ? Live ? Studio ? Stil ? --RobTorgel (Diskussion) 18:01, 6. Jan. 2013 (CET)

10 bit? Wußte ich nicht, obwohl ich jahrelang die Daten manuell editiert habe. Wo sind die 2 bit drin? Die sieht man nämlich nicht beim editieren, nirgends. Dann wird es ja noch schlimmer mit der berechneten Timinglatenz... - gibt es da noch weitere versteckte Hürden bei der Berechnung? Kläre mich mal bitte auf, wäre echt nett.

Es gibt keine "versteckten Hürden" bei der Berechnung; MIDI nutzt eine asynchrone serielle Übertragung ("8N1") - genau wie RS-232, nur mit einer Stromschleife an Stelle von Spannungspegeln. Beim Bearbeiten von MIDI-Daten sieht man natürlich nur die Nutzdaten - eventuell sogar noch verlängert (also ohne running status-Optimierung), um den unbedarften Anwender die Arbeit zu erleichtern. --Klaws (Diskussion) 11:42, 23. Apr. 2020 (CEST)

Gewissermaßen Privat: Habe fast alles in den Jahren gemacht. Du fragst einen Musiker nach einem Stil, der nur gute und schlechte Musik kennt und spielen kann? :) Weswegen Midi kaum mehr im Einsatz ist, nur noch bei Klassikarrangements oder wenn es wirklich elektronisch wird. Heute wird es aber immer mehr akustisch bei mir. Benutzer 79.217.166.123 (nicht signierter Beitrag von 79.217.189.244 (Diskussion) 00:09, 7. Jan. 2013 (CET))

Naja, MIDI ist ja eine Asynchron-Übertragung in der Version: 1 Start-Bit, 8 Daten-Bit, 1 Stop-Bit. Diese "neben"-bits sind rein technisch, die siehst du natürlich nirgends.

Vielleicht noch ein Detail:
  • MIDI-Thru ist meistens schon direkt elektrisch in-out, d.h. diese Latenz ist im nano-Bereich. Also weniger dramatisch.
  • Aber viele Kisten haben nur MIDI-In / MIDI-Out. Bei MIDI-Out ist aber vereinbart, dass nur die Daten anderer Kanäle weitergeleitet werden, um das aber festzustellen, muss ein komplettes Byte erst eingelesen werden, d.h. jedes Geräte in der Kette erzeugt eine Latenz von einem Byte, also 0,320 mS (Bei Soft-Thru wäre das das Gleiche).

Stilfrage: ROFL, du wärst der erste ernsthafte Musiker gewesen, der sich selber in eine Lade steckt *g*. --RobTorgel (Diskussion) 07:36, 7. Jan. 2013 (CET)

CE-Kennzeichnung

Im Abschnitt Nachrichtentypen ist die Grafik Datei:NoteNamesFrequenciesAndMidiNumbers.svg. Warum ist in der Tabelle das "C" immer neben der E-Taste? -- Pemu (Diskussion) 12:53, 25. Jun. 2013 (CEST)

Hat sich erledigt, war etwas blind. -- Pemu (Diskussion) 12:56, 25. Jun. 2013 (CEST)

Fehler im Schaltplan?

Schließt der Optokoppler oben nicht +5V und Masse kurz wenn er durchschaltet? Strom fließt durch Kollektor-Emitter des oberen linken Transistors und durch Basis-Emitter des unteren rechten Transistors! ich denke der 470R-Widerstand muss hier statdessen als Pull-Up verwendet werden! (nicht signierter Beitrag von 77.186.117.253 (Diskussion) 18:08, 21. Jun. 2014 (CEST))

Nur damit's dasteht: Der Schaltplan ist korrekt (vielleicht wurde er seit Deiner Frage korrigiert): Strom fließt durch C-E des ersten Transistors als Basisstrom in den unteren Transistor und zieht damit den Output auf Masse. Der 470-Ohm-Widerstand ist ein Pullup (des Outputs). --Haraldmmueller (Diskussion) 13:21, 22. Apr. 2018 (CEST)

Bearbeitung heute

Den Aspekt Auflösung gab es zweimal. Ausserdem wurden Gegenaussagen zu den Controllern mitten in den Redefluss hingetragen. Alles nach hinten und geordent. So sollte es flüssiger sein. (nicht signierter Beitrag von 87.178.99.234 (Diskussion) 20:34, 29. Nov. 2015 (CET))

mid in wiki

wiki sollte dringend an Stellen, wo man intuitiv sucht, dem dummen Leser verraten, wie man dies auch in wiki verwendete Format abspielen kann, z.B. in diesem Artikel. Danke 2003:40:EF3D:A8D0:DD3E:7434:15BD:29BB 12:20, 11. Okt. 2016 (CEST)

Zahlenformat Controller Angaben

Finde es verwirrent in der Tabelle gebräuchlicher Controller die Controller Nummer in Hex-Notation zu finden aber im Flißetext darüber die Angaben jeweils dezimal codiert stehen zu haben. Sollte das nicht auf Hex vereinheitlicht werden?--79.213.163.106 11:09, 5. Feb. 2017 (CET)

Die Subskripte werden überhaupt inkonsistent verwendet:
  • Im Abschnitt Nachrichtentypen steht "8016 bis FF16 und die Datenbytes zwischen 0016 und 7F16" - hier sind die Subskripte die Basis.
  • Im Abschnitt Controller werden die Subskripte dann plötzlich für den Dezimalwert verwendet, z.B. "000", "011", "2032".
Was "sollen wir denn wollen?"
--Haraldmmueller (Diskussion) 13:11, 22. Apr. 2018 (CEST)

class compliant

Wäre nicht ein Hinweis auf "class compliant", also das Nutzen von Midi-Interfaces automatisch ohne Treiber, sinnvoll?

Aktualität

Der Artikel liest sich wie aus den 80er Jahren, ist unglaublich unübersichtlich und mischt mehrere Themen, die hier nicht her gehören. Alles über Expander und Soundmodule ist keine Frage von MIDI. Sachen über C-64 usw. gehören in einen Abschnitt "Geschichte" (auch wenn es ja sicher einzelne Menschen geben mag, die heute noch damit arbeiten...), ebenso wie ein guter Teil von "Einsatzbereiche". An vielen Stellen gibt es Kommentare und Interpretationen, die allenfalls unter "Kritik" Platz finden könnten. Dort finden sich Aussagen, die nach Kritik von elektronischer Instrumenten der 80er oder 90er klingt, z.T. wissenschaftlich falsch sind und weder mit MIDI selbst noch etwas mit den heutigen Möglichkeiten elektronischer Instrumente zu tun haben.

Die Schnittstelle ist heute bei digitalen und analogen Synthesizern vieler Art nach wie vor essentiell für Live- und Studio-Setups. Der Artikel erweckt an vielen Stellen den Eindruck, als wenn das aus einer längst vergangenen Zeit wäre.

Es fehlt z.B.:

  • 14bit MIDI Controller Daten
  • MPE (MIDI Polyphonic Expression) [3]
  • Brandneu (August 2018): Offizielle Spezifikation der (lange vorhandenen) 3,5mm Klinken-Verbindung [4]
  • MIDI Capability Inquiry (MIDI-CI) [5]
  • USB class compliant MIDI ist heute Standard (da gibt es eben gerade keine Treiber der Hersteller!)

Zetano (Diskussion) 13:12, 28. Aug. 2018 (CEST)

Midi 2.0 angekündigt

Nach Jahren des Stillstands scheint nun endlich Bewegung in Sachen Midi 1.0 gekommen zu sein.

Die MMA und die AMEI (die japanische Midi-Organisation) kündigten im Januar 2019 die Arbeit an Midi 2.0 an und versprechen weitreichende Rückwärts-Kompatibilität. Eine damit zusammenhängende neue Spezifikation 'Midi-CI' (Capability Inquiry) wurde bereits veröffentlicht. Die endgültige Spezifikation von Midi 2.0 wird aber erst nach Abschluss der Arbeiten zum Download verfügbar sein.

Midi soll mit Auto-Konfiguration, neuer DAW/Web Integration, erweiterter Auflösung, erhöhter Ausdruckskraft sowie besserem Timing aufgewertet werden.

Schlüsselfunktionen von Midi 2.0 sollen die drei B's und die drei P's sein:

Bidirectional (Senden und Empfangen über die gleiche Verbindung), Backwards Compatible (Midi 1.0 Kompabilität beibehalten), Both (verbessern der Midi 1.0 Eigenschaften wo möglich)

Profile Configuration, Property Exchange (Geräte-Eigenschaften abfragen), Protocol Negotiation


Vorgesehen sind (vorläufig) Auflösungen von 16 Bit für Velocity (7 Bit bisher) und 32 Bit für Registered Controllers, Assignable Controllers und Control Change Messages

www.midi.org

Fragt sich ob in diesem Artikel bereits jetzt ein Hinweis auf Midi 2.0 gemacht werden soll (auf eine noch nicht verfügbare Spezifikation, auf noch nicht verfügbare Hardware/Software) ? Es wird ja vermutlich noch einige Zeit vergehen, bis die Hard/Software beim Benutzer zum Einsatz kommt.

Soll Midi 2.0 ein Teil dieses Artikels sein, oder der bessern Übersicht wegen ein eigener Artikel, mit Verweisen zwischen beiden ?

kar und mid

Meines Wissens haben KAR-Files aber auch noch Text mit drin. Wird der dann überlesen, wenn ich versuche, das in MIDI zu laden? (nicht signierter Beitrag von 2A01:598:9082:F070:3813:2F8A:64EE:93B2 (Diskussion) 16:32, 21. Jul. 2020 (CEST))

Auch MID-Files können Text drinhaben, mit dem Meta-Event FF 05. Der wird nicht beim Laden, sondern beim Abspielen überlesen, es sei denn, Deine Software "macht was damit". Das tut z.B. Karaoke-Software; oder Notenprogramme, die MIDI einlesen und den Text in die Partitur übernehmen. KAR-Files und MID-Files sind exakt dasselbe. --Haraldmmueller (Diskussion) 22:14, 21. Jul. 2020 (CEST)

MIDI-Controller

Man sollte eventuell mal ein neues Bild eines aktuellen Controllers einsetzen, weil das inzwischen die meist benutzte Technik ist. Gemeint ist ein USB Controller, z.B. ein solcher von AKAI oder Novatation. Leider habe ich in der Commons kein Bild gefunden. 80.138.175.84 02:19, 1. Okt. 2020 (CEST)

Systematik und Lemma MIDI - MIDI-Controller - Masterkeyboard

Mein Verständnis war eigentlich immer, dass (so wie in der englischen Wikipedia dargestellt) MIDI_controller|dargestellt]], dass MIDI-Controller der Oberbegriff ist alle Geräte, die MIDI-Daten erzeugen. Midi-Gitarre, Midi-Wind-Conroller, Drehregler, Drumpads, Pedale, Fussschalter usw. sind sozusagen alle Midi-Controller mit verschiedenen Daten die geschickt werden. Hier scheint das Verständnis anders zu sein, d.h. Geräte, die eine Tonhöheninformation senden, werden nicht MIDI-Controller genannt? Und das reine Masterkeyboard wäre dann kein MIDI-Controller? öst (Diskussion) 14:25, 12. Okt. 2020 (CEST)

Woraus hast du das geschlussfolgert? Das Wort MIDI-Controller wird praktisch für 2 Dinge verwendet: Die Steuerinformation (wobei es "Controller-Wert" heissen müsste) und die Geräte, die diese senden.Tonstudio96 (Diskussion) 03:46, 6. Dez. 2020 (CET)