Die Interaktive Partikelwolke ist eine audiovisuelle Installation, die Menschen intuitiv ins Spiel mit Bewegung, Klang und Bild einlädt. Auf einer großen Leinwand schweben Partikel, reagieren auf jede Bewegung und formen in Echtzeit neue "Wolken" und Harmonien. Ohne Anleitung entsteht eine Erfahrung, die man selbst erkunden kann: stehen bleiben, springen, gemeinsam mit anderen interagieren und spüren, wie sich Bild und Ton verändern. Ziel war es, einen Raum zu schaffen, in dem Neugier geweckt wird und sich das Erleben aus dem Tun heraus entfaltet.
Die Idee
Zu Beginn hatten wir die Vorstellung, ein digitales System zu entwickeln, das sich wie ein lebendiges Material verhält und unmittelbar auf menschliche Präsenz reagiert. Anstatt ein klassisches Interface mit festen Funktionen zu gestalten, wollten wir eine offene Umgebung schaffen, in der Partikel auf Bewegungen reagieren und dadurch ein dynamisches, eigenständiges Verhalten zeigen.

Raum und Medium
Ursprünglich planten wir eine Projektion in einen abgedunkelten Nebelraum, um eine körperlich erlebbare Tiefenwirkung zu erzeugen. Nach mehreren technischen Tests entschieden wir uns jedoch für eine klare, stabile Lösung: eine großformatige Videowall als Präsentationsfläche. Sie ermöglicht eine scharfe Partikeldarstellungen und einen schnellen, zuverlässigen Aufbau. Diese Entscheidung trafen wir auch, um die Schnittstellenprobleme der ursprünglichen Idee zu umgehen und ein insgesamt stabileres System zu schaffen. So konnten wir das Tracking und die Visualisierung direkt in p5.js integrieren und alles in einem durchgängigen Workflow umsetzen.
Für das Tracking nutzen wir Posenet, eine Open‑Source‑Library, die Körperpositionen in Echtzeit aus Videobildern erkennt. In unserem Code werden ausschließlich die beiden Schulterpunkte getrackt. Aus den Koordinaten von linker und rechter Schulter berechnen wir einen Mittelwert, der als zentrale Einflussposition für die Partikel dient. So konzentriert sich die Interaktion auf einen klaren Punkt pro Person, was das Verhalten der Partikel stabil und nachvollziehbar macht.
Anforderungen und Ziele
Intuitive Interaktion: Ohne Anleitung erfahrbar, experimentell erlebbar.
Stabilität: Keine störanfälligen Schnittstellen, ein cleanes Setup.
Audiovisuelle Spannung: Harmonien und disharmonische Klänge, die sich dynamisch verändern.
Reaktion auf mehrere Personen: Partikelblasen, Verschmelzungen und Soundüberlagerungen.
Raum für Erkundung: Besucher:innen sollen durch Bewegung Muster erzeugen und erforschen.
Von Beginn an war uns wichtig, dass man die Installation ohne Erklärung verstehen kann: ein System, das Menschen einfach ausprobieren lässt: Was passiert, wenn ich stillstehe? Was verändert sich, wenn wir uns zu mehreren bewegen? Der Raum vor dem Screen wird so zum Experimentierfeld, in dem Bild und Ton eine mysteriöse Atmosphäre schaffen.
Konzept und Prototyp
Für die Umsetzung haben wir uns an unser bereits geschriebenes Tutorial zu Partikelsystemen gehalten und dieses als Grundlage genutzt:
https://0t1.de/blog/von-temperatur-zu-bewegung-reaktive-partikelsysteme-mit-arduino-p5-js
Darauf aufbauend haben wir das Verhalten der Partikel weiterentwickelt, verschiedene Parameter getestet und intensiv mit den Möglichkeiten der Simulation experimentiert. In dieser Phase kam auch das Tracking ins Spiel: Wir haben unterschiedliche Lösungen ausprobiert und getestet, wie sich die Bewegungsdaten am zuverlässigsten in das System integrieren lassen.
Um die Abläufe und Reaktionen besser planen zu können, haben wir gezielt überlegt, wie sich die Partikel bei verschiedenen Bewegungen verhalten sollen und wie das auf der Leinwand sichtbar wird. Diese Kombination aus Planung, Partikelsimulationen und Trackingtests bildete im Grunde unseren Prototypen. So konnten wir die Kernfunktionen schon früh ausprobieren und Schritt für Schritt in eine stabile Form bringen.
Partikelverhalten und Sounddesign
Die Partikel reagieren direkt auf die Menschen im Raum: Nähern sie sich, weichen sie aus, bei Stillstand sammeln sie sich zu einer Blase, und wenn mehrere Personen zusammenkommen, verschmelzen die Partikelbereiche leicht.
Ihre Bewegung steuert zugleich den Klang. Je stärker und schneller sie sich bewegen, desto höher und lauter werden die Töne, ruhige Partikel erzeugen weichere Harmonien. Aus den Bewegungsdaten werden in Echtzeit Frequenzen und Lautstärken der Oszillatoren berechnet, sodass Bild und Ton eng miteinander verknüpft sind.
Auch die Farbgestaltung unterstützt das Verhalten der Partikel. Die Grundfarbe der Partikel bleibt konstant, doch bei schnellen Bewegungen entstehen zusätzlich kleine, leuchtende Partikel in der Mitte. Diese „Sparks“ machen intensive Bewegungen sichtbar und verstärken den Eindruck von Dynamik, ohne das Farbschema grundlegend zu verändern. So wird auch über die visuellen Effekte unmittelbar spürbar, wie stark die Partikel gerade auf die Interaktion reagieren.
Aufbau und Tests vor Ort
Vor Ort richten wir die Kamera (Laptop) so aus, dass der gesamte Bewegungsbereich erfasst wird. Wir testen verschiedene Szenarien: einzelne Personen, Gruppen, schnelle Bewegungen. Dabei entsteht ein spannendes Wechselspiel aus visuellen und klanglichen Veränderungen. Die Boxen unseres kleinen "Parcours" laden dazu ein, verschiedene Höhen auszuprobieren und dadurch neue Partikelreaktionen zu erleben. Die Installation läuft stabil und überzeugt durch die unmittelbare Reaktion auf jede Bewegung.
Learnings
Der Weg von der Idee zur fertigen Installation war geprägt von Entscheidungen für Stabilität und Klarheit. Statt einer chaotisch, anfälligen Immersion im Nebelraum entwickelten wir eine minimalistischere, aber wirkungsvolle Installation, die genau das erfüllt, was wir uns vorgenommen hatten: Eine vollimmersive Rauminstallation.
Wir lernten, dass Reduktion oft die überzeugendsten Ergebnisse liefert und dass audiovisuelle Systeme dann besonders stark wirken, wenn sie technisch sauber und ästhetisch durchdacht sind.
Team und Betreuung:
Kim von Hasseln, Veronika Matichyn
Betreuung: Prof. Gerbaulet, Laurens Braig