The Feel Of Algorithms - Minna Ruckenstein

Habt ihr euch von einem Algorithmus schon mal beobachtet oder gar systematisch manipuliert gefühlt? Der nachfolgende Artikel zeigt, dass unsere Gefühle und Emotionen im Umgang mit algorithmischen Systemen nicht einfach nur Reaktionen, sondern auch Erkenntnisquellen sind und wieso man bewusster auf Gefühle achten sollte, wenn man Technik gestaltet.

Worum geht es in dem Buch?

"the feel of algorithms"
Minna Ruckenstein

Dieses Buch erforscht, wie Menschen algorithmische Systeme fühlen und erleben. Ruckenstein sammelt persönliche Alltagsgeschichten über Begegnungen mit Algorithmen und verknüpft sie mit sozialwissenschaftlicher Forschung. Im Zentrum steht die Frage: Warum lösen Algorithmen bei uns Freude, Angst oder Frustration aus? Das Buch zeigt, wie Emotionen (z. B. Begeisterung, Furcht, Misstrauen, Frustration) unser Verständnis von Algorithmen prägen. Dabei geht es sowohl um theoretische Konzepte (etwa “Strukturen des Gefühls” nach Raymond Williams) als auch um empirische Einblicke (Interviews in Finnland, Alltagssituationen). Insgesamt beleuchtet The Feel of Algorithms, welche Rolle algorithmische Systeme im täglichen Leben spielen – von sozialen Medien bis zu Smartphones – und wie politische und ökonomische Prozesse im Alltagsgefühl spürbar werden.

Die Autorin - Minna Ruckenstein

Bild von Minna Ruckenstein

Bevor wir uns jetzt aber näher mit dem Buch beschäftigen, schauen wir einmal auf die Autorin Minna Ruckenstein. Minna Ruckenstein ist Professorin für „Emerging Technologies in Society“ am Consumer Society Research Centre der Universität Helsinki und leitende Forscherin des „Datafied Life Collaboratory“. Ihre Forschung konzentriert sich auf die Digitalisierung und Datenifizierung (Erfassung und Nutzung von Alltagsdaten. Zum Beispiel Vorlieben beim Online-Shopping) mit besonderem Fokus auf die emotionalen, sozialen, politischen und wirtschaftlichen Aspekte von Daten und algorithmischen Praktiken. Dabei verbindet sie interdisziplinär Ansätze aus der Anthropologie der Technologie, den Science and Technology Studies, den Medien- und Kommunikationswissenschaften sowie der Konsumökonomie.

Aktuell widmen sich ihre Projekte wichtigen Themen wie den öffentlichen Werten in zukünftigen algorithmischen Systemen (Grundprinzipien, die für das Gemeinwohl in einer Gesellschaft wichtig sind – zum Beispiel Gerechtigkeit, Transparenz, Privatsphäre, Teilhabe und Verantwortung.), der Humanisierung automatisierter Entscheidungsprozesse sowie der Reparatur und Erneuerung algorithmischer Systeme. Sie untersucht dabei den alltäglichen Umgang mit digitalen Technologien in Städten wie Helsinki, Shanghai und Hangzhou.

Ruckenstein hat in den letzten Jahren mehrere wissenschaftliche Arbeiten veröffentlicht, darunter Artikel und Buchkapitel zu algorithmischer Kultur, algorithmischer Autonomie und der Reparatur algorithmischer Systeme. Ihre Arbeiten erscheinen in Fachzeitschriften wie „Big Data & Society“, „Annual Review of Anthropology“ und „Information, Communication & Society“. Zudem arbeitet sie mit Organisationen wie AlgorithmWatch und MyData Global zusammen, um die gesellschaftlichen Auswirkungen von Algorithmen und Datenverarbeitung zu erforschen.

Ihr aktuelles Werk, das Buch The Feel of Algorithms (2023) untersucht, wie Menschen Algorithmen emotional erfahren und welche sozialen sowie politischen Implikationen diese Erfahrungen haben.

Was sind überhaupt Algorithmen?

Um zu Beginn direkt besser verstehen zu können schauen wir uns an was Algorithmen überhaupt sind. Algorithmen sind in der Technik grundlegende Bausteine – sie sind genau definierte Schritt-für-Schritt-Anleitungen, die ein Computer nutzt, um bestimmte Aufgaben zu lösen oder Probleme zu bearbeiten. Dabei folgt der Computer diesen Anweisungen systematisch, um Daten zu verarbeiten, Entscheidungen zu treffen oder Ergebnisse zu liefern. So sorgen Algorithmen beispielsweise dafür, dass Suchmaschinen relevante Ergebnisse anzeigen, Navigations-Apps die beste Route berechnen oder Streaming-Dienste passende Filme und Musik empfehlen. Sie sind also quasi die „Rezeptbücher“ für Computerprogramme, die den Ablauf bestimmen und dafür sorgen, dass technische Systeme funktionieren.

Zentrale Erkenntnis

Algorithmen sind mehr als nur Anleitungen für Rechenmaschinen. Sie erzeugen und beeinflussen Gefühle, die wiederum auf gesellschaftliche Machtverhältnisse hinweisen (Algorithmen sind nicht nur technisch, sondern kontrollieren unsere Daten und Entschiedungen durch bewusstes beeinflussen unserer Gefühle). Indem wir diese emotionalen Erfahrungen ernst nehmen, können wir Technologie kritischer hinterfragen und gerechter gestalten.

Kernthesen

Emotionale Erfahrungen sind zentral

"Algorithms generate emotional responses"
Minna Ruckenstein

Algorithmen lösen vielfältige Gefühle aus – Begeisterung/Faszination, Angst/Misstrauen und Frustration/Irritation treten besonders häufig auf. Diese Emotionen sind kein „Nebeneffekt“, sondern formen aktiv, wie wir Algorithmen wahrnehmen, bewerten und ob sie Vertrauen schaffen, Unsicherheit erzeugen oder Kontrolle vermitteln.

Alltagsgeschichten als Wissen

"Subjective perception shapes the way we interact with algorithms"
Minna Ruckenstein

Menschen erzählen sich Geschichten über “den Algorithmus”, die Fakten und Vermutungen vermischen (sogenannte algorithmische Folklore). Statt diese Anekdoten als Irrglauben abzutun, betont Ruckenstein, dass persönliche Erfahrungen eine wertvolle Wissensquelle über die Wirkung von Algorithmen sind. Wir „lernen“ Algorithmen kennen, indem wir ihre Wirkung fühlen und Geschichten darüber erzählen.

Strukturen des Gefühls

Aufbauend auf Raymond Williams identifiziert Ruckenstein drei emotionale Grundmuster im Umgang mit Algorithmen:

  • Dominante Gefühlsstruktur – Optimismus und Freude: Algorithmen werden als hilfreich, spannend und ermächtigend erlebt. Tech-Enthusiasten und Unternehmen betonen die positiven, begeisternden Aspekte (z. B. Personalisierung als Gewinn).

  • Oppositionelle Gefühlsstruktur – Misstrauen und Angst: Hier dominieren Sorgen, Frustration oder Ablehnung – etwa wegen Datenschutzbedenken, Überwachung oder gefühlter Bevormundung durch Algorithmen. Nutzer fühlen sich unwohl und wehren sich innerlich gegen algorithmische Kontrolle.

  • Emergente Gefühlsstruktur – Ambivalenz: Ein Zwischentyp, bei dem positive und negative Erlebnisse mit Algorithmen koexistieren. Diese Menschen erleben Widersprüche: Einerseits nützlich und faszinierend, andererseits irritierend oder unberechenbar. Die entstehende Haltung ist ambivalent – man arrangiert sich mit Algorithmen, bleibt aber skeptisch.

Ko-Evolution von Nutzer und System

"People are not merely passive users"
Minna Ruckenstein

Menschen sind nicht passiv – viele passen ihr Verhalten an, um mit Algorithmen besser zu leben. Das Buch zeigt, wie Nutzer versuchen, Algorithmen zu beeinflussen, etwa indem sie ihre Social-Media-Interaktionen steuern: „Wenn Algorithmen uns beeinflussen, können wir sie umgekehrt zurück beeinflussen“, so das Gefühl. Dieses wechselseitige Anpassen (User kuratieren Inhalte, Algorithmen reagieren auf Nutzerdaten) ist ein zentrales Muster. So „ko-evolvieren“ Mensch und Algorithmus im Alltag miteinander.

Infrastruktur der Intimität

"Algorithms are not neutral"
Minna Ruckenstein

Algorithmen durchdringen persönliche Bereiche – von der Partnerwahl (Dating-Apps) über Nachrichten bis zum Gesundheits-Tracking. Ruckenstein spricht von “Infrastrukturen der Intimität”: Digitale Systeme weben sich in unsere Vorlieben, Entscheidungen und Beziehungen ein. Dadurch entstehen Spannungen zwischen individueller Autonomie und systemischer Kontrolle: Nutzer möchten selbstbestimmt handeln, spüren aber die Vorgaben der Datenökonomie (Stichwort Datenkolonialismus - Ausbeutung persönlicher Daten durch mächtige Unternehmen oder Staaten).

Emotionen als Frühwarnsystem

"Emotions regarding algorithms carry political and ethical implications."
Minna Ruckenstein

Gefühle wie Unbehagen oder Frustration sind wertvolle Indikatoren. Sie machen auf problematische Praktiken aufmerksam – z. B. wenn ein Algorithmus unfair erscheint oder Privatsphäre verletzt. Das Buch zeigt, dass Emotionen uns helfen, Missstände zu erkennen (etwa übermäßige Überwachung) und den Ruf nach Alternativen laut werden lassen. In der Summe plädiert Ruckenstein dafür, Alltagsgefühle ernst zu nehmen, um ethische, menschengerechte Technologien zu entwickeln.

Kritischer und fürsorglicher Umgang

The Feel of Algorithms fordert einen bewussten, aber menschlich-zentrierten Umgang mit Algorithmen. Anstatt Zukunftsvisionen nur zu feiern oder zu verdammen, sollten wir den gegenwärtigen Alltag betrachten: Wie fühlen sich Menschen heute mit Algorithmen und was sagt uns das? Ruckenstein ruft Entwickler und Designer zu Fürsorge auf – verantwortungsbewusstes Design, das die emotionalen Bedürfnisse und Rechte der Nutzer berücksichtigt. So entstehe Raum für humane technologische Ansätze statt rein datengetriebener Optimierung.

Fallbeispiele und Praxisbezug

In ihrem Buch geht Ruckenstein auf mehrere praxisbezogene Fallbeispiele ein.

Kuratierter Newsfeed (positive Erfahrung): Ein Beispiel im Buch ist Henrik, ein Nutzer, der seinen Facebook-Newsfeed aktiv „säubert“. Als ihn negative Posts über eine Flüchtlingsdebatte täglich frustrierten, blockierte er 1200 von 1500 “Freunden” und trainierte den Algorithmus, ihm fast nur noch erfreuliche Inhalte zu zeigen. Ergebnis: Sein Feed besteht nun aus Technologie-Neuigkeiten, Tiervideos und Memes – Algorithmen als Quelle von Freude. Henrik zeigt, wie Nutzer ihre Umgebung formen, um positive Emotionen zurückzugewinnen (eine Art Dominante Gefühlsstruktur im Eigenbau).

Widerstand im Algorithmus (kritische Anpassung): Eine andere Interviewpartnerin, Laura, filtert gezielt patriarchale oder unerwünschte Inhalte aus ihren sozialen Medien heraus. Sie möchte dem Algorithmus beibringen, nur Inhalte entsprechend ihrer feministischen Werte anzuzeigen. Laura agiert als “Alltags-Moderatorin” ihres Feeds und verkörpert einen oppositionellen Ansatz: Statt sich vom Algorithmus diktieren zu lassen, formt sie ihn nach ihren Prinzipien. Dieses Beispiel verdeutlicht, wie Nutzer Misstrauen in die Plattform durch eigene Kontrollstrategien begegnen.

Algorithmische Folklore (Ängste und Gerüchte): Ruckenstein berichtet von einem Gerücht, das 2012 viral ging: Facebook habe angeblich private Nachrichten öffentlich auf Pinnwänden gepostet. Obwohl unwahr, verbreitete sich die Story rasant und verunsicherte viele. Ein Interviewpartner gab zu, ihn schrecke die Vorstellung, intime Chats könnten plötzlich öffentlich werden - gerade weil er solche Chats geführt habe. Diese Anekdote zeigt, wie digitale Urban Legends (moderne, weitverbreitete Geschichten, die oft als wahr dargestellt werden, aber in der Regel nicht belegbar oder falsch sind) echte Angst und Misstrauen schüren. Für UX bedeutet das: Intransparenz fördert Unsicherheit - klare Kommunikation und Privacy-by-Design könnten solchen Ängsten entgegenwirken.

Leben mit Unsicherheit (Ambivalenz): Heidi, eine Studentin, steht für die pragmatische Ambivalenz vieler Nutzer. Sie meint, man könne sich nicht komplett der digitalen Welt entziehen, ohne ins Abseits zu geraten. Anstatt sich von Überwachungsängsten lähmen zu lassen, plädiert sie dafür, kompetent mit der unsicheren Situation zu leben – z.B. bewusster Daten preiszugeben, aber digitale Vorteile weiterhin zu nutzen. Dieses Fallbeispiel spiegelt die emergente Gefühlsstruktur: Das gleichzeitige Akzeptieren der Vorteile und der Risiken, verbunden mit dem Gefühl, sich mit den Algorithmen arrangieren zu müssen.

Weitere Beispiele (über das Buch hinaus): Auch außerhalb der Studien Ruckensteins sehen wir täglich solche Phänomene: etwa die Faszination, wenn Netflix erstaunlich treffende Filmvorschläge liefert, oder die Frustration, wenn eine Navigations-App einen in die Irre führt. Menschen diskutieren auf YouTube und TikTok ständig “den Algorithmus” - mal dankbar für Reichweite, mal genervt von plötzlich geänderten Empfehlungsmechanismen. Diese realen UX-Szenarien untermauern die Buch-Thesen: Emotionen begleiten jede Algorithmus-Interaktion und sollten von Gestaltern verstanden werden.

Fazit und Bewertung

Innovativer Blickwinkel: Das Buch bietet einen neuartigen Zugang, indem es Emotion und Technologie zusammenbringt. Fachleute loben die interdisziplinäre Herangehensweise – Ruckenstein verknüpft Anthropologie, Medienforschung und Datenethik, um Algorithmen als kulturelle und intime Akteure zu begreifen. Für UX-Designer ist dieser menschzentrierte Fokus äußerst wertvoll, da er zeigt, wie Nutzer Technik wirklich erleben, jenseits bloßer Nutzungsstatistiken.

Alltagsrelevanz und UX-Bezug: The Feel of Algorithms ist praxisnah: Die zahlreichen Beispiele und Interviewzitate lassen die abstrakte “Algorithmus”-Thematik lebendig werden. Leser gewinnen ein Verständnis für die Gefühlswelt der Nutzer, was im UX-Design hilft, Empathie aufzubauen. Besonders der Gedanke, dass Nutzer Geschichten und Mythen über Algorithmen bilden, regt UX-Profis an, mehr Transparenz und vertrauensbildende Interfaces zu gestalten.

Kritische Anmerkungen: Einige Rezensenten weisen darauf hin, dass Ruckenstein die historischen und globalen Kontexte der Emotionen nicht vollständig ausleuchtet. Die Fokusgruppen stammen vorwiegend aus Finnland; dies und teils US-zentrierte Beispiele könnten die Verallgemeinerbarkeit begrenzen. Außerdem bleibt das Konzept der „emergenten“ Gefühlsstruktur etwas abstrakt – wann genau entsteht sie, und ist sie wirklich neu? Trotz dieser Punkte überwiegt der Gewinn: Die Kritik mindert nicht die Kernbotschaft, sondern zeigt eher, wie komplex das Thema ist.

Relevanz und Fazit: Insgesamt wird The Feel of Algorithms als ambitioniert und erkenntnisreich bewertet. Ruckensteins Verzicht auf simple Urteile („Algorithmen sind gut oder böse“) und ihr Fokus auf Ambivalenz gelten als Stärke. Aus UX-Sicht liefert das Werk einen wichtigen Denkanstoß: Es erinnert Designer daran, dass hinter jeder Interaktion mit KI-Systemen ein fühlender Mensch steht. Das Buch unterstreicht die Notwendigkeit, UX-Design und Ethik enger zu verzahnen, um Technologien zu schaffen, die Nutzer nicht nur bedienen, sondern auch berücksichtigen.


© 0t1

Cookies

0t1 mag keine Kekse (und kein Tracking). Wir verwenden lediglich notwendige Cookies für essentielle Funktionen.

Wir verwenden Schriftarten von Adobe Fonts. Dafür stellt dein Browser eine Verbindung zu den Servern von Adobe in den USA her. Wenn du unsere Seite nutzen möchtest, musst du dich damit einverstanden erklären.

Weitere Informationen in unserer Datenschutzerklärung.