Die Sache, die mir am meisten über Signalverarbeitung ist die potentielle Anwendung in der Musik interessiert. Ich eine Weile erinnern vor sah ich eine Vorschau einer Anwendung (Sorry, vergessen, den Name)
Vielleicht cubase?
, die zu einer Aufnahme von jemand eine Gitarre spielt hören konnte, und es automatisch mit den aktuellen Noten/Akkorde über eine Zeitliniendiagramm aus, die
Tief vereinfachte gespielt wurden, Wenn Sie eine Note spielen, erzeugen Sie eine periodische Welle mit einer bestimmten Frequenz. Es gibt einen mathematischen Trick (die Fourier-Transformation DFT), der die Welle in das Spektrum umwandelt, das anstatt die Intensität gegen die Zeit zu präsentieren, sie gegen die Frequenz der Welle zeigt. Zum Beispiel würde eine perfekte A-Note von einer Stimmgabel eine oszillierende Welle bei 440 Hz erzeugen. Im Zeitbereich würde dies als Sinuswelle erscheinen. In der Frequenzdomäne erscheint es als einzelne schmale Spitze, die bei 440 Hz zentriert ist.
Jetzt, wenn Sie eine Gitarre spielen, erzeugen Sie keine perfekten Sinuswellen. Trifft man ein A, wird die Grundfrequenz 440 Hz erzeugt, aber auch viele zusätzliche Frequenzen (zB 880, Oktave höher, aber auch viele andere höhere und tiefere Frequenzen), aufgrund der Physik der schwingenden Saite, des Materials und Form der Gitarre etc .. Diese zusätzlichen Frequenzen werden Harmonische genannt, und sie mischen sich mit dem Grundton, um "den Klang der Gitarre" zu erzeugen (was im Musikjargon Timbre genannt wird). Ein anderes Instrument (zB Piano) wird unterschiedliche Obertöne mit dem Grundton mischen, wodurch ein anderes Timbre erzeugt wird.
Was DSP-Programme tun, ist eine DFT auf das eintretende Signal durchzuführen. Mit zusätzlichen Tricks finden sie die Grundtöne und die Obertöne, und je nachdem, was sie finden, leiten sie die von Ihnen gespielte Note ab. Dies muss schnell geschehen, da Sie die Note beim Live-Spiel finden und spezielle Tricks auslösen können. Zum Beispiel könnten Sie eine A-Note auf der Gitarre schlagen, die DSP versteht, dass es ein A ist und sie durch das A eines Klaviers ersetzt, also erhalten Sie von den Lautsprechern den Klang eines Klaviers.
Mit dem Programm kann der Benutzer konnte auf diese bewegen und sogar zu bearbeiten. Nun, offensichtlich ist das eine Menge komplizierter, aber beteiligt es die gleiche Sache? Signalverarbeitung? Ich bin auch interessiert an möglichen Anwendungen in Music Visualizern und intelligente Beleuchtungssysteme.
Ja. Sobald Sie im Frequenzbereich sind, wird es sehr einfach. Zum Beispiel könnten Sie ein bestimmtes Licht entsprechend den Stimmfrequenzen und ein anderes Licht mit der Bassdrum aufleuchten lassen.
Mein Verständnis ist, dass auf einem komprimierten Audio-Format diese Verarbeitung zu tun wie MP3 wird nicht die gleichen Ergebnisse als MIDI ergeben, die separaten Spuren enthält (Vielleicht ich falsch verstanden).
Sie sind zwei verschiedene Dinge. MP3 ist ein komprimiertes Format einer Schallwelle. Grundsätzlich braucht es, was die Lautsprecher steuert und komprimiert. Die Idee ist die gleiche: DFT, dann Entfernen von Dingen, die man kaum hören kann (zum Beispiel wird eine hohe Tonhöhe, die direkt nach einem hochintensiven Klang kommt, weniger wahrscheinlich gehört, so dass sie entfernt wird).
MIDI auf der anderen Seite ist eine Rolle von Ereignissen (Sie wissen, wie die Klaviere im fernen Westen, mit dem Rollenpapier Scroll). Die Datei enthält keine Musik. Es enthält Anweisungen für einen MIDI-Player, um bestimmte Noten zu bestimmten Zeiten mit bestimmten Instrumenten zu spielen. Die Qualität der "Instrumentenbank" ist unter anderem, was einen schlechten MIDI-Player (der wie ein Kinderspiel klingt) von einem guten MIDI-Player unterscheidet (der für Blasinstrumente, insbesondere für Klaviere und Geigen, realistisch klingt muss ein realistisches hören).
Es dauert von MIDI zu MP3, Sie führen nur durch einen MIDI-Player. Andersherum ist eine ganz andere Geschichte, und viel komplexer, und hier kommt DSP ins Spiel, wie Sie gesagt haben.
Es ist wie ein fisk Tank zu kochen. Du bekommst eine Fischsuppe. Aber um von der Fischsuppe zurück zum Aquarium zu kommen, ist es viel schwieriger.
Würde ein unkomprimiertes Format wie PCM besser als MP3?
PCM ist eine Technik, um ein analoges Signal in ein digitales Signal umzuwandeln. Ihre Frage hat also ein grundlegendes Missverständnis, dass es kein PCM-Format gibt (das RAW-Format ist knapp, es gibt im Grunde nur grobe Daten). Wenn Sie fragen, ob ein unkomprimiertes WAV (das PCM-Daten enthält) besser ist als MP3, dann ja, aber die Frage ist manchmal, wie viel das für das menschliche Ohr wirklich wichtiger ist und wieviel Nachbearbeitung Sie an diesen Daten vornehmen müssen.
wissen, ob es irgendwelche bestehenden Bibliotheken gibt, die dies erleichtern können, oder Artikel zu diesem Thema im Zusammenhang die Wissenschaft/Programmierung, mit vielleicht Beispielcode in Richtung Computer-ausgerichtet. Auch Open Source Sound/Musik-Visualizer oder andere Open-Source-Sound-Processing-Code wäre toll.
Wenn Sie wie Python, take a look at this page
Sorry, wenn ich machen keinen Sinn nicht. Wie ich schon sagte, ich weiß nicht wovon ich spreche.
Ich auch nicht, aber ich spielte ein bisschen damit.
Ich glaube, du Timbre meine, nicht –
In italienischen Timbro es ist timbro und Musiker nutzen die italienische Schreibweise ziemlich oft. Festsetzung. –
Interessant, danke. –