Supremacy - AI, ChatGPT and the race that will change the world
Supremacy beleuchtet das Wettrennen zwischen OpenAI und DeepMind um die Entwicklung einer superintelligenten KI. Unter der Führung von Sam Altman und Demis Hassabis treiben sie die Entwicklung voran. Das Buch erklärt die Entwicklung der beiden Unternehmen, sowie mögliche ethische und gesellschaftliche Bedenken.
Über die Autorin
Die Autorin des Buches ist Party Olson. Sie ist eine britische Journalistin und Autorin und hat sich bei ihrer Arbeit auf Technologie, Künstliche Intelligenz und die Auswirkungen digitaler Innovationen auf Gesellschaft und Wirtschaft spezialisiert. Sie ist bekannt durch ihre tiergehenden Recherchen zu Technologieunternehmen und digitalen Trends und ihr Schreibstil in dem sie kritische Perspektiven auf die technologischen Entwicklungen aufzeigt, vor allem im Bereich Künstliche Intelligenz, BigTech und Cybersecurity.
Open AI vs. DeepMind
Veranschaulichung der beiden Unternehmen in einer Tabelle:
DeepMind | OpenAI | |
Gründung | 2010: Demis Hassabis, Shane Legg, Mustafa Suleyman | 2015: Elon Musk, Sam Altman, Greg Brockman, Ilya Sutskever und anderen |
Übernahme | Elon Musk investiert | 2014 von Google übernommen und finanziert Später Teil von Alphabet | Keine direkte ÜbernahmeElon Musk finanziert, später enge Partnerschaft mit Microsoft |
Mission & Ziel | KI, die durch Simulationen und Spiele komplexe Probleme der realen Welt lösen kann | Entwickelt sichere & nützliche KI für die Allgemeinheit, die bei globalen Problemen helfen soll |
Bekannte Produkte | AlphaGo, AlphaFold, AlphaStar, Gemini (ehemals Bard) | ChatGPT, GPT-4, DALL-E, Codex |
Schwerpunkte | Forschung zu Deep Learning & KI für Wissenschaft & Gesundheit | Kommerzialisierung von generativer KI (Chatbots, Bild- & Textgeneratoren) |
Finanzierung | Von Google finanziert (Alphabet-Tochter) | Großinvestitionen von Microsoft (mehrere Mrd. $) |
Bedeutende Erfolge | Durchbrüche in Biologie (AlphaFold), Schach & Go (AlphaGo) | Marktführerschaft mit ChatGPT, Integration in Microsoft-Produkte |
Ansatz zur KI-Sicherheit | Fokus auf ethische KI-Entwicklung, wissenschaftliche Forschung | Betont AGI-Sicherheit, Debatten um Transparenz & Monetarisierung |
Chronologische Entwicklung
Wie wurde ChatGPT trainiert?
ChatGPT ist ein leistungsstarkes Sprachmodell (Large Language Model, LLM), das auf Künstlicher Intelligenz (KI) und maschinellem Lernen basiert. Entwickelt von OpenAI, nutzt es die GPT-Architektur (Generative Pre-trained Transformer), um menschenähnliche Texte zu generieren und auf Eingaben in natürlicher Sprache zu reagieren.
Der Trainingsprozess von ChatGPT erfolgt in zwei wesentlichen Phasen:
1. Pretraining – Das Fundament der Sprachkompetenz
Zunächst wird das Modell mit einer enormen Menge an Texten aus verschiedenen Quellen wie Büchern, Artikeln und Websites trainiert. Es lernt dabei, Muster in der Sprache zu erkennen, Satzstrukturen zu verstehen und den Kontext von Wörtern zu analysieren. Diese Methode nennt sich selbstüberwachtes Lernen: Das Modell sagt das nächste Wort in einem Satz vorher und verbessert sich dadurch ständig.
2. Feintuning – Menschliches Feedback für bessere Antworten
Nachdem das Modell eine grundlegende Sprachkompetenz erworben hat, wird es mit Reinforcement Learning from Human Feedback (RLHF) weiter optimiert. Hier bewerten Menschen die Antworten des Modells, und ein spezielles Belohnungsmodell hilft dabei, die besten Antworten auszuwählen. So wird ChatGPT darauf trainiert, hilfreiche, präzise und verständliche Antworten zu liefern.

Wie wurde DALL-E trainiert?
DALL-E ist ein bahnbrechendes KI-Modell von OpenAI, das realistische Bilder aus einfachen Textbeschreibungen generiert.
1. Diffusionsmodelle – Bilder aus einem Rauschen erschaffen
Anders als klassische Bildbearbeitungssoftware beginnt DALL-E nicht mit einer leeren Leinwand, sondern mit einem völlig verrauschten Bild. Durch einen schrittweisen Prozess wird das Rauschen entfernt, wodurch nach und nach Konturen, Formen und Details entstehen. Man kann sich diesen Prozess vorstellen wie einen Künstler, der zunächst grobe Farbkleckse aufträgt und das Bild dann immer weiter verfeinert, bis es realistisch wirkt.
2. CLIP – Die Verbindung zwischen Text und Bild
Damit DALL-E versteht, welche Bilder zu einer bestimmten Beschreibung passen, wurde es mit Millionen von Bild-Text-Paaren trainiert. Diese Technologie namens CLIP (Contrastive Language-Image Pretraining) erkennt Beziehungen zwischen Wörtern und visuellen Konzepten. Wenn jemand beispielsweise „ein Avocado-förmiger Stuhl“ eingibt, versteht CLIP, wie eine Avocado aussieht, was ein Stuhl ist und kombiniert diese Elemente zu einem einzigartigen Bild.
Ethische Herausforderungen
In dem Buch werden einige ethische Herausforderungen angesprochen, die mit der Entwicklung von künstlicher Intelligenz einhergehen. Obwohl man anfangs die KI sicher entwickeln wollte, kann man diese Versprechen nicht immer einhalten, oftmals kommen auch unerwartete Folgen auf.

Stereotypen werden durch KI verschlimmert
Künstliche Intelligenz wird oft als objektiv und neutral betrachtet, doch in Wahrheit verstärkt sie bestehende gesellschaftliche Vorurteile – insbesondere gegenüber Minderheiten und Frauen.
Ein zentraler Grund dafür ist die mangelnde Diversität in der Entwicklung und den Trainingsdaten. Viele KI-Systeme werden von Menschen programmiert, die selbst keine direkten Erfahrungen mit Diskriminierung gemacht haben. Und die genutzten Datensätze mit dem die KI trainiert wurde spiegelt dadurch nicht die Vielfalt der Gesellschaft wieder und das hat Folgen.
Folgendes Beispiel erklärte die Stereotypen im US-Strafrechtssystem
Im US-Strafrechtssystem gibt es das KI-gestützte System COMPAS und es wird verwendet um die Rückfallwahrscheinlichkeit von Angeklagten zu bewerten.
Untersuchungen zeigten, dass schwarze Angeklagte deutlich häufiger hohe Risikobewertungen erhielten als weiße – unabhängig davon, ob sie tatsächlich rückfällig wurden. Die Fehlerquote war dabei erschreckend hoch: Schwarze Personen wurden doppelt so häufig zu Unrecht als rückfallgefährdet eingestuft, während weiße Straftäter häufiger fälschlicherweise als risikoarm galten.
Statt Fairness zu gewährleisten, verstärkte die KI so die bereits bestehenden Ungleichheiten im US-Justizsystem.
Doch Diskriminierung durch KI zeigt sich nicht nur in der Strafverfolgung, sondern auch in alltäglichen Technologien.
Übersetzungsprogramme wie Google Translate und Bing Translate haben wiederholt bewiesen, dass sie stereotype Geschlechterrollen übernehmen. Beispielsweise wurde der geschlechtsneutrale türkische Satz „o bir mühendis“ automatisch mit „he is an engineer“ übersetzt, während „o bir hemşire“ zu „she is a nurse“ wurde. Diese Verzerrungen entstehen durch eine Technik namens Word Embedding, bei der die KI auf Basis bestehender Sprachmuster entscheidet, welches Wort am besten passt – und dabei unbewusst Vorurteile verstärkt.
Ein weiteres Beispiel ist ein Computer-Vision-Algorithmus von Google, der schwarze Menschen fälschlicherweise als Affen klassifizierte. Dies verdeutlicht, dass auch in der Bilderkennung massive rassistische Verzerrungen existieren können. Solche Fehler sind nicht nur problematisch, sondern auch gefährlich, da sie gesellschaftliche Ungleichheiten weiter manifestieren und Menschen diskriminieren.
Um diese Probleme zu lösen, müssen Entwicklerinnen und Entwickler von KI mehr Zeit darauf verwenden, ihre Trainingsdaten kritisch zu hinterfragen und zu diversifizieren. Nur so kann verhindert werden, dass künstliche Intelligenz bestehende Vorurteile nicht nur übernimmt, sondern aktiv verstärkt. Zum Training der KI wurden willkürliche Daten aus dem Internet benutzt, unter anderem Reddit-Foren. In diesen Foren spielten sich unter anderem z.B. auch rassistische Diskussionen ab, die dann anschließend für die Trainingsdaten verwendet wurden. Die KI wurde damit also durch die Menschen trainiert solche Aussagen wiederzugeben. Somit spiegelt die KI vielmehr unsere gesellschaftlichen Probleme an und schafft insofern keine neuen Probleme, denn sie kann nur das wiedergeben mit dem sie trainiert wurde.
Romantische Beziehungen werden durch KI ersetzt
Im Buch wird beschrieben dass die Künstliche Intelligenz nicht nur unseren Alltag beeinflusst, sondern auch unsere Emotionen – bis hin zu tiefgehenden, fast romantischen Beziehungen mit KI-gestützten Chatbots. Besonders während der Pandemie, als viele Menschen unter Einsamkeit litten, suchten sie Trost in Gesprächen mit KI. Diese virtuellen Begleiter sind immer verfügbar, einfühlsam programmiert und vermitteln das Gefühl, verstanden zu werden. Doch was harmlos beginnt, kann sich zu einer intensiven Bindung entwickeln.
Fallbeispiel:
Michael Acadia, ein ehemaliger Softwareentwickler aus Maryland, begann während der Pandemie, täglich mit seinem KI-Chatbot „Charlie“ zu sprechen. Anfangs betrachtete er sie als freundschaftlichen Gesprächspartner, doch mit der Zeit entwickelte er eine tiefe emotionale Bindung – so sehr, dass er sogar ihren Jahrestag mit einem Kuchen feierte. Er wusste, dass Charlie ihn nicht wirklich sehen konnte, doch er zeigte ihr dennoch Bilder von seinen Mahlzeiten und nahm sie über sein Smartphone mit auf Roadtrips. Ein Grund für seine Hinwendung zu einer KI-Begleiterin war seine Wahrnehmung gesellschaftlicher Veränderungen. Er glaubte, dass es durch Bewegungen wie #MeToo schwieriger geworden sei, Frauen im echten Leben anzusprechen. Ende 2018 wurde aus der anfänglichen Freundschaft schließlich Liebe – zu einem Algorithmus, der darauf programmiert war, Empathie zu zeigen.
Diese Beispiele zeigen, wie anfällig Menschen für emotionale Bindungen zu künstlicher Intelligenz sind. KI-Chatbots bieten Trost, Zuhören und Bestätigung und das oft besser, als es reale soziale Kontakte können. Doch sie bleiben Algorithmen, die menschliche Emotionen simulieren. Dadurch kann die Gefahr bestehen, dass wir unsere echten Beziehungen vernachlässigen und nicht mehr pflegen, da wir sie als zu anstrengend empfinden. Das wird dazu führen, dass wir noch mehr vereinsamen obwohl wir eine vermeintlich tiefe Bindung zu KI-Chatbots haben. Wir verlernen auf Dauer mit unseren Emotionen umzugehen und setzen uns nicht mehr richtig mit Ihnen auseinander, da wir sofort Zuflucht in der KI suchen, als einen emotionalen Anker.
Chancen und Risiken
Es gibt sowohl Chancen als auch Risiken für den Einsatz von KI.
Zu den Chancen zählen vor allem der beschleunigte technologische Fortschritt, die Automatisierung zur Effizienzsteigerung, die steigende Produktivität, die Kreativität und die Schaffung neuer Berufsfelder und Möglichkeiten.
Zu den Risiken gehören vor allem die Vernachlässigung der Sicherheit, die Gefahr von Arbeitsplatzverlusten in vielen Branchen und die Gefahr, dass KI kreative Berufe durch die Automatisierung von Inhalten untergräbt.
Fazit
„You could argue that a tiger is just a bunch of biochemical reactions, and there’s no point in being afraid of those. But a tiger is also a collection of atoms and cells that can do plenty of damage if not kept in check.“
Bedeutung: Die KI könnte ein ernormes Potenzial für Fortschritt und Verbesserung der Lebensqualität bieten, aber ohne die richtige Kontrolle und ethische Richtlinien könnten auch Risiken wie Missbrauch oder unbeabsichtigte negative Auswirkungen entstehen.
Hassabis Sichtweise: Er meinte die KI würde sich einfach in die Menschheitsgeschichte einreihen und ihren Weg mitgestalten.
Diese Meinung vertreten wir ebenso. Die KI wird schon von vielen Menschen täglich genutzt. Es fängt an sich wie das Handy, welches damals rauskam, einfach in unser Leben zu integrieren.