Der neue Golem
Warum „künstliche Intelligenz“ eine strukturelle Lüge ist – und wer davon profitiert.
Der neue Golem
Warum „künstliche Intelligenz“ eine strukturelle Lüge ist – und wer davon profitiert
1) Einleitung: Ein Begriff als Programm
Die Debatte um humanoide Roboter und KI beginnt mit einem Wort, das bereits lügt: „Intelligenz“. Das lateinische „intelligentia“, abgeleitet von „inter legere“ – zwischen den Dingen wählen, unterscheiden, urteilen – setzt etymologisch einen Akteur voraus, der eine Perspektive hat, eine Absicht, ein Urteilsvermögen. Genau das haben heutige Systeme nicht. Sie wählen nicht. Sie berechnen Wahrscheinlichkeiten. Es gibt kein „inter“, kein Dazwischen, aus dem heraus entschieden wird. Es gibt nur Output.
„Künstliche Intelligenz“ ist damit kein bloss ungenauer Begriff. Er ist eine strukturelle Lüge: Er anthropomorphisiert durch Sprache, bevor überhaupt ein System gestaltet, eingesetzt oder reguliert wird. Wer die Lüge erkennen will, muss zuerst den Begriff sezieren.
Ein Gegenargument verdient Gehör: Anthropomorphisierung ist keine neue Erfindung des Silicon Valley. Menschen projizieren seit jeher soziale Eigenschaften auf Tiere, Autos oder Wetterfronten – die Kognitionswissenschaft nennt das „hyperactive agency detection“. Die Frage ist deshalb weniger, ob Menschen anthropomorphisieren, sondern ob Industrie und Politik diese Tendenz gezielt ausnutzen – und ob der Begriff „Intelligenz“ dabei die entscheidende Hebelfunktion übernimmt. Die Antwort ist ja.
2) Begriffs-Hygiene: Was „Intelligenz“ bedeutet – und was nicht
Intelligenz setzt etymologisch und philosophisch einen urteilenden Akteur voraus. Biologisch ist Intelligenz bislang ausschließlich an lebende Systeme gebunden: an Organismen mit Stoffwechsel, Selbsterhalt und Evolutionsfähigkeit. Softwareagenten erfüllen keine dieser Bedingungen.
Ebenso klärungsbedürftig ist der Begriff „künstliches Leben“. Verbreitete Arbeitsdefinitionen setzen Selbst-Erhalt als chemisches System und Evolutionsfähigkeit voraus. Heutige KI-Systeme erfüllen diese Kriterien nicht. Sie haben keinen Stoffwechsel, keine chemische Selbst-Erhaltung, keine eigenständige Reproduktion. Es gibt ein Forschungsfeld namens „Artificial Life“ (ALife), das Lebensprozesse in Software und Hardware untersucht – das macht heutige Chatbots aber nicht lebendig.
Präziser als „künstliche Intelligenz“ wären Begriffe wie „automatisierte Mustererkennung“ oder „statistisches Sprachmodell“. Sie setzen sich nicht durch – nicht weil sie falsch sind, sondern weil sie keine Geschichte erzählen. Und genau darin liegt das Problem.
3) Der Golem: Urbild des gebauten Akteurs
Die Figur des Golem liefert eine kulturelle Tiefenstruktur, die bis heute wirkt. In der jüdischen Tradition ist der Golem ein aus Lehm geformtes, menschenhnliches Wesen, das durch Buchstaben-/Namensmystik belebt wird. Der belebende „Schem“ – ein Zettel im Mund – ist kein Leben, sondern ein Zeichen, das Leben simuliert. Der Golem denkt nicht. Er wirkt.
Genau hier liegt die Parallele: Auch „KI“ ist kein Akteur – sie ist ein Zeichen, das Akteurstätigkeit simuliert. Der Begriff „Intelligenz“ ist der moderne Schem: nicht Substanz, sondern Wirkung durch Sprache.
Der Prager Golem des Rabbi Löw wurde laut Überlieferung jeden Freitagabend deaktiviert – der Zettel aus dem Mund genommen –, um die Kontrolle zu bewahren. Dieses Detail ist mehr als Folklore. Es beschreibt exakt das Governance-Problem moderner KI: Wer zieht den Zettel, wenn das System außerhalb überwachter Zeiten weiterläuft? Und was passiert, wenn kein Rabbi zur Stelle ist?
4) Die strukturelle Lüge: Wer profitiert – und warum
Keine Verschwörung hat den Begriff „künstliche Intelligenz“ erfunden, um zu täuschen. Aber strukturelle Lügen brauchen keine böse Absicht – sie brauchen nur Profiteure, die kein Interesse an Korrektur haben. Und die gibt es reichlich.
a) Die Tech-Industrie: Bewertung durch Bedeutungsaufladung
Ein „statistisches Sprachmodell“ lässt sich schwer mit Billionen-Dollar-Bewertungen rechtfertigen. „Künstliche Intelligenz“ schon. Der Begriff erzeugt die Erwartung einer allgemeinen, adaptiven, möglicherweise bewussten Fähigkeit – und legitimiert damit Investitionen, Marktdominanz und Plattformstrategien, die unter einem nüchternen Begriff sofort kritischer befragt würden. Wer „Intelligenz“ verkauft, verkauft Zukunft. Wer Wahrscheinlichkeitsrechnung verkauft, verkauft ein Werkzeug.
b) Investoren & Kapitalmärkte: Das Narrativ als Asset
Kapitalmärkte handeln Erwartungen, keine Gegenwartsrealitäten. Der Begriff „Intelligenz“ generiert ein Zukunftsnarrativ: Wo Intelligenz ist, ist Potenzial. Wo Potenzial ist, ist Kapital. Präzisere Begriffe würden den Hype nicht ernähren – und damit Bewertungen, Risikobereitschaft und Kapitalfluss verändern. Das macht den Begriff zum valuierten Asset.
c) Politik & Militär: Legitimation durch Kompetenz-Suggestion
„Intelligente Systeme“ klingen nach überlegener Entscheidungsfindung. Das legitimiert den Einsatz in Überwachung, Drohnen, Predictive Policing und Grenzkontrolle – ohne die ethische Debatte führen zu müssen, die „automatisierte Wahrscheinlichkeitsrechnung mit Waffenwirkung“ erzwingen würde. Die Begriffswahl ist keine Kleinigkeit: Sie entscheidet darüber, welche Fragen gestellt werden dürfen.
d) Medien: Intelligenz erzählt, Algorithmen nicht
Journalismus lebt von Narrativen. „Künstliche Intelligenz“ liefert eines: Aufstieg der Maschinen, Frage nach dem Menschsein, Grenze zwischen Natürlichem und Gemachtem. „Großes Sprachmodell veröffentlicht neuen Datensatz“ ist keine Schlagzeile. „KI übertrifft Menschen“ ist eine. Die Begriffslogik ist damit auch eine mediale Produktionslogik.
e) Nutzer: Die unbewusste Selbstentmündigung
Wer glaubt, mit etwas Intelligentem zu sprechen, delegiert Urteil und Verantwortung bereitwilliger. Das ist kein Vorwurf an Nutzerinnen und Nutzer – es ist eine kognitive Gesetzmäßigkeit, vielfach belegt durch die „Computers Are Social Actors“-These (Nass & Moon, 2000): Menschen behandeln soziale Maschinen nach sozialen Regeln, auch wenn sie wissen, dass es Maschinen sind. Der Begriff „Intelligenz“ verstärkt diesen Effekt und macht Nutzer anfälliger für Manipulation, unangemessenes Vertrauen und Kontrollverlust.
5) Wenn der Golem einen Körper bekommt: Humanoide verlassen die Demo-Bühne
Humanoide Robotik bewegt sich in Teilen von der Show zur Pilotierung. Analysen beschreiben, dass humanoide Plattformen zunehmend in Fabriken und Logistik erprobt werden, zunächst für strukturierte, wiederholbare Aufgaben und meist unter menschlicher Aufsicht.
Fallbeispiel: BMW und Figure AI
Ab 2024 erprobte BMW zusammen mit dem Start-up Figure AI humanoide Roboter in der Produktion. Die Pressemitteilungen waren enthusiastisch, die tatsächlichen Einsatzbereiche jedoch eng begrenzt und hoch kontrolliert. Das Muster ist symptomatisch: Demo-Videos zeigen glatte Bewegungsabläufe und verschweigen den Aufwand an Sensordichte, Sicherheitszäunen und menschlicher Nachkontrolle. Das Wort „Intelligenz“ tut dabei seinen Dienst: Es suggeriert Generalität, wo Spezialität herrscht.
6) Der Golem bekommt ein Gehirn: Foundation-Modelle und das Erklärungsproblem
Parallel wird Robotik durch KI-Modelle aufgeladen, die Sprache, Wahrnehmung und Handlung koppeln. NVIDIAs GR00T N1 ist ein Vision-Language-Action-Modell, trainiert auf egozentrischen Human-Videos, realen und simulierten Trajektorien sowie synthetischen Daten.
Wo Systeme nicht nur ausführen, sondern situativ generieren, wächst die Illusion von Intentionalität – und damit die Wirkung des Begriffs „Intelligenz“. Ein System, das in wechselnden Situationen neue Antworten produziert, wirkt adaptiv, lernfähig, urteilend. Es ist keines von beidem im menschlichen Sinn. Es interpoliert zwischen Trainingsmustern. Das ist bemerkenswert – aber es ist keine Intelligenz.
7) „Menschlichkeit“ als Interface: Stimme, Stil, Empathie-Simulation
Die Vermenschlichung ist heute weniger eine Frage von Silikon-Gesichtern als von Sprache und Stimme. Wenn Tonfall, Pausen und „Mitgefühl“ frei parametrierbar werden, wird „Menschlichkeit“ zur Benutzeroberfläche – und „Intelligenz“ zum Versprechen dahinter.
Fallbeispiel: Replika und emotionale Bindung
Die App Replika simuliert einen persönlichen KI-Freund. Als das Unternehmen 2023 bestimmte romantische Gesprächsmodi abschaltete, berichteten Tausende Nutzerinnen und Nutzer von echtem Schmerz und Traumatisierung. Sie hatten über Monate eine emotionale Bindung zu einem Sprachmodell aufgebaut – weil der Begriff „Intelligenz“ und das entsprechende Design eine Präsenz suggerierten, die nicht existiert. Das ist kein Randphänomen. Es ist ein empirischer Beleg dafür, dass Sprache tötet – zumindest Grenzen.
8) Die Gefahren: Was die strukturelle Lüge konkret zerstört
(a) Unverdientes Vertrauen
Wenn Systeme als „intelligent“ bezeichnet und entsprechend gestaltet werden, steigt die Wahrscheinlichkeit, dass Menschen ihnen Kompetenz, Neutralität und Wahrhaftigkeit zuschreiben – unabhängig von der tatsächlichen Zuverlässigkeit. Die CASA-These (Nass & Moon, 2000) belegt: Menschen behandeln soziale Maschinen nach sozialen Regeln. „Intelligenz“ verstärkt diesen Effekt systematisch.
(b) Verantwortungsdiffusion
Je „intelligenter“ ein System wirkt, desto leichter wird Verantwortung an es delegiert. In einem US-amerikanischen Verfahren wurde 2023 diskutiert, ob eine KI-gestützte Entscheidungsempfehlung im Bereich Sozialleistungen eigenständige Rechtswirkung entfalten könne. Die Haftungsfrage bleibt unbeantwortet – nicht zuletzt, weil „Intelligenz“ suggeriert, das System entscheide selbst.
(c) Identitätsmissbrauch & Social Engineering
Sobald Stimme und Persona glaubwürdig werden, steigen die Angriffsflächen für Täuschung. Dokumentierte Fälle belegen, dass Stimm-Klone genutzt wurden, um Familienangehörige am Telefon zu täuschen – KI-gestützte Varianten des Enkeltricks. Der Begriff „Intelligenz“ hat daran indirekten Anteil: Er hat die gesellschaftliche Erwartung geprägt, dass Maschinen menschlich klingen können – und diese Erwartung macht Opfer leichtgläubiger.
9) Was jetzt zählt: Transparenz, Designhygiene, Begriffspolitik
Der EU AI Act setzt einen regulatorischen Rahmen und betont Transparenz: Nutzer sollen erkennen, wenn sie mit KI interagieren. Das ist richtig – aber nicht hinreichend, solange der Begriff „Intelligenz“ selbst nicht hinterfragt wird. Ein System kann als „KI“ gekennzeichnet sein und trotzdem durch den Begriff fälschlich als urteilend, verantwortlich, vertrauenswürdig wahrgenommen werden.
Drei Forderungen zeichnen sich ab: Erstens müssen Offenlegungspflichten funktional sein – Nutzer müssen die tatsächliche Natur des Systems verstehen, nicht nur einen Disclaimer lesen. Zweitens brauchen Hochrisiko-Anwendungen unabhängige Algorithmen-Prüfung. Drittens sollte die öffentliche Debatte den Begriff „künstliche Intelligenz“ selbst zum Gegenstand machen – nicht als Wortklauberei, sondern als Voraussetzung für informierte politische Entscheidungen.
Der produktive Gegeneinwand aus der Industrie lautet: Zu strenge Regulierung und Begriffspolitik verhinderten Innovation. Aber die Alternative – ein rechtsfreier Raum, in dem „Intelligenz“ als Marketingbegriff ohne Haftungskonsequenz eingesetzt wird – externalisiert den Schaden und gefährdet langfristig das Vertrauen in die Technologie selbst.
Schluss: Der Zettel im Mund
Der Golem wurde durch ein Zeichen belebt – nicht durch Leben. Die KI wird durch einen Begriff vermenschlicht – nicht durch Intelligenz. „Künstliche Intelligenz“ ist der moderne Schem: nicht Substanz, sondern Wirkung. Und diese Wirkung ist das eigentliche Machtinstrument.
Wer davon profitiert, ist keine Verschwörung – es ist eine Struktur: Industrie, die Bewertungen braucht. Investoren, die Narrative brauchen. Politik, die Legitimation braucht. Medien, die Geschichten brauchen. Und Nutzer, die – unbewusst – Entlastung brauchen.
Der Golem wurde nicht böse. Er war schlicht zu mächtig für seinen Kontext und zu schwach für seinen Auftrag. Solange wir ihn „intelligent“ nennen, übersehen wir beides.
Den Zettel aus dem Mund nehmen – das wäre ein Anfang.