Unser interaktiver Raum macht von den Besucher*innen erzeugte Musik durch innovative Technologien sichtbar. Die Installation schafft eine immersive Atmosphäre, die unabhängig von Alter oder musikalischer Vorerfahrung zum Entdecken und Experimentieren einlädt. Verschiedene Eingabe- und Ausgabemöglichkeiten bieten nahezu unbegrenzte Gestaltungsmöglichkeiten.

Entstehungsprozess

Unser Projekt durchlief mehrere Phasen – von der ersten Ideenfindung bis zur finalen Umsetzung. Jede Phase brachte eigene Herausforderungen und Erkenntnisse mit sich.

Konzeptphase

In dieser Phase entwickelten wir erste Ideen, wie Musik erlebbar und sichtbar gemacht werden kann.

Unser erster Entwurf sah – wie rechts im Bild zu sehen – einen cockpitähnlichen Aufbau vor, ausgestattet mit Knöpfen, Kippschaltern und einem Stromkasten zur Steuerung verschiedener Samples.

Da uns eine nachhaltige Umsetzung wichtig war, planten wir von Anfang an mit vorhandenen Materialien und gebrauchten Bauteilen. Ziel war ein funktionierendes Bedienfeld, das ohne den Einsatz neuer Ressourcen realisiert werden konnte.

Vision und technische Anforderungen

Nach der Konzeptphase begannen wir mit der praktischen Umsetzung. Dabei zeigte sich schnell, dass nicht alle Ideen wie geplant umsetzbar waren. Durch Tests und Anpassungen entstand schließlich ein funktionales und intuitives Bedienfeld.

Dieses besteht aus 16 Kippschaltern, mit denen verschiedene Samples gesteuert werden, 10 Potentiometern (darunter 2 große Drehregler) für Effekte, Filter und Vocals sowie 8 Druckknöpfen, die als „Klaviertasten“ das Spielen eigener Melodien ermöglichen.

Ergänzt wird das Cockpit durch Hazer, Beamer, Lautsprecher und ein Wasserbecken, wodurch ein Raum geschaffen wird, in dem Klang und Licht miteinander verschmelzen. Die Besucher*innen können so Musik nicht nur hören, sondern auch sehen und erleben.

Technisch werden die Signale über einen Arduino Uno ausgelesen. Die Visualisierung erfolgt mit p5.js, während FL Studio für die Erzeugung und Bearbeitung der Sounds genutzt wird. Beide Systeme laufen synchron und ermöglichen eine direkte Verbindung zwischen Klang und visueller Darstellung.

Grundgerüst aus Holz
Grundgerüst aus Holz
Cockpit mit Farbe
Fertiges Cockpit

Finale Umsetzung

  • Bedienfeld:
    Die Kombination aus 16 Kippschaltern, 10 Potentiometern und 8 Druckknöpfen ermöglicht eine spielerische und individuelle Steuerung von Samples, Effekten und Melodien.

  • Arduino Uno:
    Verbindet die analogen Bedienelemente mit der digitalen Ebene.

  • p5.js Visualisierung:
    Ziel ist es, die erzeugte Musik visuell sichtbar zu machen.

  • FL Studio:
    Loops, Effekte und eigene Melodien werden dort kombiniert und ausgegeben.

  • Raumelemente (Beamer, Hazer, Lautsprecher, Wasserbecken):
    Sie schaffen eine immersive Umgebung. Licht, Nebel und Reflexionen im Wasser verstärken die visuelle Wahrnehmung und verbinden Klang und Raum

  • Beamer

  • Hazer

  • Arduino Uno

  • Audio Interface

  • Kippschalter

  • Potentiometer

  • Druckknöpfe

    Trailer: Making Of & Lichtshow

    Software

    p5.js läuft parallel zu FL Studio. BPM, Effekte und MIDI-Signale werden synchronisiert, sodass der Visualizer die Musik in Echtzeit visuell begleitet.

    Audio

    Drum-/Sample-Loops und AudioFX
    Die Installation bietet 12 Drumloops, unterteilt in 4 Kategorien, sowie 4 Instrumentalloops in A-Moll. Damit steht eine breite Auswahl an Frequenzen und Klangfarben zur Verfügung, die individuell kombiniert werden können.

    Insgesamt ist die Musiksteuerung in drei Bereiche unterteilt:

    • Midi-Keyboard – zum Erzeugen eigener Melodien.

    • AudioFX – zur Klangverfremdung und Effektsteuerung.

    • Drum- und Sample-Loops – zur Auswahl und Kombination vorgefertigter Klangbausteine.

    Im AudioFX-Bereich stehen 8 Effekte zur Verfügung, die auf alle Instrumental-Samples angewendet werden können. Zusätzlich gibt es 2 spezielle Effekte, die ausschließlich die Vocals betreffen.

    Das Midi-Keyboard arbeitet in der A-Moll-Tonleiter mit 8 Noten (A5 bis A6). Für den Klang nutzen wir einen elektrischen Synthesizer-Pluck-Sound, der sich durch seine klare Klangcharakteristik deutlich vom übrigen Soundbild abhebt.

    Diese Aufteilung ermöglicht eine intuitive Steuerung und nahezu unbegrenzte Variationen im Zusammenspiel von Klang und visueller Darstellung.

    Bedienelemente

    Für die Steuerung der Installation haben wir insgesamt 34 Bedienelemente verbaut:

    • 16 Kippschalter – zur Auswahl und Steuerung verschiedener Samples.

    • 10 Potentiometer, davon 2 größere Drehregler – für Effekte, Filter und Klangveränderungen.

    • 8 Druckknöpfe – als „Klaviertasten“ zur Erzeugung eigener Melodien.

    • Potentiometer

    • Druckknöpfe

    • Kippschalter

      Visualizer

      p5.js Software läuft parallel zu FL Studio.
      Die BPM sowie die Effekte der Drumloops werden über einen gemeinsamen Counter synchronisiert. Der Visualizerreagiert auf dieselben MIDI-Signale, die auch FL Studio ansteuern. So wird eine direkte Kopplung von Klang und visueller Darstellung ermöglicht.

      Making-of

      Ein kleiner Einblick in unsere Arbeit um dieses Projekt zu verwirklichen.

        AutorIn

        Lovis Brefka, Marco Coric, Lars Freitag, Jona Glomb, Elena Kimpel

        Betreuer:

        Prof. Gerbaulet, Laurens Braig