2026-04-03 –, The Rabbit Hole
Wie funktioniert eigentlich musikalische Beaterkennung? Ich habe einen Algorithmus entwickelt, um aus Live-Audio-Input ein "Metronom-artiges" Taktsignal (MIDI-Clock) zu erzeugen, das auch bei Tempowechseln noch mitkommt. Damit kann man z.B. Licht und Visuals zur Musik synchronisieren.
Der Algorithmus ist nicht auf ein bestimmtes Genre spezialisiert und arbeitet ohne Künstliche Dummheit.
Außerdem tauchen wir ein wenig in das Rabbithole "Python und Echtzeitverarbeitung" ab.
Der Algorithmus funktioniert unabhängig vom Genre der Musik und hat nur wenige "magische" Einstellparameter. Es ist ein traditioneller Algorithmus basierend auf guter alter Signalverarbeitung und Wahrscheinlichkeitsrechnung. Man kann zwischen Qualität und Rechenleistung abwägen und bei Bedarf live eingreifen, wenn er den Takt verloren hat.
Wir besprechen die Signalverarbeitung und das Bayes'sche Wahrscheinlichkeitsmodell hinter dem Algorithmus, und betrachten Verbesserungsmöglichkeiten sowohl am Algorithmus als auch an der Implementierung.
Außerdem erzähle ich, was ich über Python und Echtzeit gelernt habe, damit ihr es nicht müsst.
Also known as "Windfisch". Software developer questioning his life decisions, Rust fanboy, uses C++ and Python where he has to, frowns upon C.
I'm doing embedded, signal processing and recently fell into the vintage computing rabbit hole.
I also sometimes create visuals for music using hydra or make music myself.