Interaktivität im Raum

Dieses Semesterprojekt behandelt die Erstellung generativer Kunst auf Basis von Emotionen. Mithilfe einer Webcam werden die Emotionen anhand der Mimik getrackt und als Generation widergespiegelt. Die Partikel in der Generation verändern sich in Abhängigkeit der getrackten Emotionen.

Der Nutzer kann spielerisch ausprobieren, wie sich die Partikel gestalterisch verändern, indem er mit seiner Mimik verschiedene Emotionen ausdrückt.

Prozess

Der Entwicklungsprozess von der Idee bis hin zum fertigen Endprodukt erstreckte sich über mehrere Phasen, die im Folgenden genauer erläutert werden.

1. Ideensammlung

Gemeinsam in der 4er-Gruppe sammelten wir die verschiedensten Ideen zum Thema Interaktivität im Raum und informierten uns über das Themengebiet der generativen Kunst. Diese Ideen wurden in der Gruppe ausführlich diskutiert und anhand ihrer Umsetzbarkeit und Innovation verglichen.

2. Ideenauswahl

Aufgrund des Themengebietes des Machine-Learning und der innovativen Technologie dahinter, haben wir uns letztendlich dafür entschieden, Gesichtsemotionen mit Hilfe einer Kamera zu tracken. Basierend auf unterschiedlichen Emotionen sollen Partikel generiert werden, welche sich in Farbe, Geschwindigkeit, Anzahl und Bewegungsrichtung voneinander unterscheiden und sich an die getrackten Emotionen anpassen.

Inspiration

Die Idee entstand durch die Inspiration von SK-II Future X, in der ebenfalls Emotionen durch eine Webcam getrackt werden und dadurch eine interaktive Kunst generiert wird. Das Moodboard diente im Verlauf des Projektes als Leitfaden.

SK-II Future X Stores on Behance

3. Emotionen

Entscheidend war auch die Auswahl der Emotionen. Diese sollten gut aus der Gesichtsmimik abzulesen sein. Hierbei entschieden wir uns für folgende Emotionen:

  • Neutral
  • Trauer
  • Freude
  • Angst
  • Wut
  • Überraschung

Um die Emotionen zu tracken, verwendeten wir ein Gesichtserkennungssystem, welches die Position der mimischen Merkmale wie Augen, Augenbrauen, Mundwinkel etc. erfasst. Hierfür wird über die Webcam Gesicht und Emotion registriert. Mithilfe der eingelesenen Emotionen wird generative Kunst in Form eines Flowfields kreiert.

4. Parameter

Angelehnt an unser Moodboard überlegten wir uns für das Flowfield Parameter, welche sich beim Tracken der verschiedenen Emotionen verändern sollen:

  • Farbe
  • Geschwindigkeit
  • Anzahl
  • Bewegungsrichtung

Um die Emotionen gut widerspiegeln zu können war es notwendig, uns genauer mit den Bedeutungen der Farben zu beschäftigen. Abhängig von der Farbe können unterschiedliche Gefühle hervorgerufen werden. Die Geschwindigkeit der Partikel des Flowfields unterstützt diesen Effekt. So können impulsive Gefühle mit schnell bewegten Partikeln besser widergespiegelt werden. Durch unterschiedliche Bewegungsrichtungen wird Ruhe oder Unruhe erzeugt.

5. Programmierung

Wir suchten im Internet nach Open Source Code, der für unser Projekt eingesetzt und angepasst werden konnte. Schließlich erfüllte die Javascript Library Face-API.js die gewünschten Anforderungen. Diese wurde anschließend mit einem Flowfield kombiniert, das mithilfe der p5.js Library erstellt wurde. Nach anfänglichen Schwierigkeiten konnten die unterschiedlichen JavaScript-Bibliotheken miteinander verknüpft werden. Die von dem Face-API eingelesenen Parameter werden an das Flowfield weitergeleitet, um die mit den Emotionen verbunden Parameter anzupassen.

6. Aufbau & Hardware

Unsere Vorstellung war es, die generative Kunst so groß wie nur möglich abzubilden, um die Interaktion im Raum möglichst ansprechend zu gestalten und eine Immersion zu schaffen. Hierbei war die beste und einfachste Lösung das Verwenden eines Beamers, um das Bild an eine große Wand zu projizieren. Erfasst werden die Emotionen durch eine Webcam, die im Raum auf einem Stativ platziert wurde.

Was ist Face-API?

Die Face-API ist ein Gesichtserkennungsystem, welches über die Webcam das Gesicht erkennt und markante Gesichtspunkte wie Augen, Augenbrauen und Mundwinkel mit Punkten hervorhebt, um die Koordinaten dieser auszulesen. Mit der Bewegung von Augenbrauen, Mund, etc. verändert sich auch die Position der Punkte im Gesicht. Vorprogrammierte Anordnungen der Punkte werden als Emotion registriert.

Ausstellung bei »Stürmt die Burg«

Im Laufe des Semesters bot sich uns die einmalige Gelegenheit unsere Semesterarbeit nicht wie sonst üblich für eine Abschlusspräsentation zu erstellen, sondern sie als Exponat bei „Stürmt die Burg“ auszustellen. Zusammen mit andern Projekten unserer Kommilitonen wurde es für vier Tage in den Räumlichkeiten der Burg für die Öffentlichkeit zugänglich gemacht.

Stürmt die Burg

Fazit

Ein Projekt für ein Event wie „Stürmt die Burg“ zu erstellen, sorgte für zusätzliche Motivation.
Um effektiv mit den verschiedenen Javascript-Bibliotheken arbeiten zu können, war es nötig, ein tieferes Verständnis für den Code zu erlangen. Auch die Optimierung der Anwendung für weniger leistungsstarke Endgeräte stellte eine Herausforderung dar. Jedoch ermöglichte der kreative Freiraum, der uns von der Projektleitung gegeben wurde, das Projekt zu unseren Vorstellungen zu gestalten. Dadurch bereitete uns die Arbeit viel Spaß und wir konnten einiges aus dem Projekt mitnehmen.

Wenn wir dein Interesse geweckt haben, hast du hier die Möglichkeit dir den Code herunterzuladen und selbst damit zu experimentieren.

Quellcode

Team

Mirko Brünecke, Josef Köhler, Joschka Kreusser, Janine Knoll

Betreuung

Prof. Damian Gerbaulet