Wer Konzerte gibt, kennt das Phänomen: nachmittags beim Soundcheck klingt noch alles super. Wenn man dann am Abend vor Publikum spielt, ist der Klang plötzlich ein völlig anderer. Die einfache Erklärung: Menschenansammlungen in einem Raum verändern dessen Akustik ganz erheblich. Sie wirken gewissermaßen als Schallabsorber. Die Tontechniker*innen hinterm Mischpult haben alle Hände voll zu tun, das wieder auszugleichen. Abhilfe könnte da - wie so oft - die KI schaffen. So hat sich jetzt ein Forschungsteam an die Arbeit gemacht, die perfekte Akustik für den Mozart-Saal der Alten Oper in Frankfurt auszutüfteln. Die soll in Zukunft nicht nur die baulichen Nachteile des Saals ausgleichen und den Unterschied zwischen Probe und Konzert exakt berechnen, sondern auch die optimale Akustik für jede Besetzung und ganz verschiedene musikalische Genres bereitstellen. Wie das genau funktioniert? Darüber sprechen wir mit dem leitenden Experten vom Fraunhofer-Institut für Digitale Medientechnologie in Ilmenau und mit dem international bekannten Pianisten Kit Armstrong, der selbst zum Thema KI und Musik forscht und das Projekt als Künstler und Botschafter begleitet.