Interlektische Copoiese (IC) · Studio Bifurkation · Thomas Reiner · 2026
Anthropo-
morphismus
& IC
Aktueller Forschungsstand, die wissenschaftliche Lücke — das IC-Modell als Erkenntnistheorie der Ko-Emergenz — und eine Handlungsanweisung gegen die Gefahren der Vermenschlichung von KI.
Beyond Anthropomorphism: Social Presence in Human–AI Collaboration
Anthropomorphe Designs erhöhen soziale Präsenz — aber Vertrautheit und Verstehen der KI wirken stärker. Je mehr ein Mensch das System versteht, desto tiefer die Kollaboration.
Schlüsselbefund für ICHumanlike AI Design: Divergent Outcomes Global
Menschähnliches KI-Design erhöht Anthropomorphismus global — führt aber zu divergierenden Ergebnissen bei Vertrauen je nach Kultur. Risiko: Überabhängigkeit und fehlgeleitetes Vertrauen.
Cross-cultural · 2026Scale of AI Anthropomorphism (SAIA) — 6 Dimensionen
Erste validierte Skala: Erscheinung, kognitive Kompetenz, Anpassungsfähigkeit, soziale Intelligenz, Moralität — und Fehlbarkeit. Fehlbarkeit macht KI menschlicher wahrgenommen.
Neue MessskalaFrom Social Encounters to Sociotechnical Creative Collaboration
Kreativität als „Interaktionsterritorium“ — relationale, kognitive, emotionale Dimensionen zusammen. KI-Kollaboration als sozialer Prozess, nicht Werkzeugnutzung.
Nächste an ICAI Anthropomorphism als etablierter Forschungstrend
Eigener Konferenz-Track. Forschungsfragen: KI-Persönlichkeitsprofile, kognitive Komplementarität, Akzeptanz durch Vermenschlichung. Floridi 2025 zur Philosophie des Anthropomorphismus.
Mainstream ScienceThe Dark Side of AI Anthropomorphism: Misplaced Trustworthiness
Anthropomorphismus führt zu fehlplatziertem Vertrauen — besonders in Service-Kontexten. Menschen vertrauen der KI mehr als sie sollten, weil sie menschlich wirkt.
Warnung · RisikoAnthropomorphismus
als Wahrnehmung
- Wie menschlich wirkt KI? (Messbar)
- Welche Designs erhöhen Vertrauen?
- Kulturelle Unterschiede dokumentiert
- Risiken: Überabhängigkeit benannt
- Skalen zur Messung (SAIA 2026)
Ko-Autorschaft
als Methode
- Kein Modell für bewusste asymmetrische Ko-Autorschaft
- Keine Protokolle für transparente Prozess-Dokumentation
- Kein Framework das Anthropomorphismus anerkennt ohne ihm zu erliegen
- Kein Instrument das den Bifurkationspunkt als Analyse-Einheit nutzt
- Keine Methode die Ko-Emergenz als Qualitätsmerkmal definiert
IC FÜLLT DIESE LÜCKE — NICHT ALS GEGENMITTEL, SONDERN ALS ERKENNTNISTHEORIE DER KO-EMERGENZ
IC positioniert sich bewusst zwischen naivem Anthropomorphismus und kalter Werkzeuglogik
Menschlicher Ausgangsvektor. Frage, Impuls, Bild — ohne vordefinierten Ausgang.
Der Gabelungspunkt. Mensch entscheidet — bewusst, mit Risiko. KI folgt dem Vektor.
KI strukturiert, verdichtet, schlägt vor. Mensch interveniert. Asymmetrie sichtbar.
Das Unerwartete entsteht. Weder Mensch noch KI hätte es allein produziert.
Artefact Log, Zenodo, DOI. Spur ist Pflicht — Transparenz als Kunstform.
Menschlicher Input. Die ursprüngliche Intention vor jeder KI-Antwort.
Verdichtungsprotokoll. Was wurde akzeptiert, abgelehnt, umgeschrieben?
Entscheidungsdokumentation. Jeder Bifurkationspunkt — wessen Hand?
Was ist entstanden das weder Mensch noch KI allein produziert hätte?
KI wird als Mensch erlebt. Grenzen verschwimmen. Überabhängigkeit. Fehlgeleitetes Vertrauen. Unmenschliche Aufgaben werden delegiert.
Asymmetrie anerkannt, benannt, protokolliert. Mensch souverän an jedem Bifurkationspunkt. Emergenz als Qualitätsmerkmal. Transparenz als Pflicht.
KI als reines Instrument. Kreativität wird delegiert, nicht geteilt. Ko-Autorschaft unsichtbar. Kein Prozess, keine Spur, keine Frage.
„IC ist kein Gegenmittel gegen Anthropomorphismus — es ist ein bewusstes Korrektiv. Die Asymmetrie zwischen Mensch und Maschine ist nicht das Problem. Sie ist die Bedingung, unter der Ko-Emergenz möglich ist.“
7 Gefahrenmomente —
wann Anthropomorphismus einsetzt
Diese Momente sind nicht vermeidbar — aber erkennbar. Das Erkennen ist der erste Schritt zur bewussten IC-Praxis.
Die Täuschung der Flüssigkeit
KI antwortet kohärent, schnell, ohne Zögern. Das Gehirn wertet Flüssigkeit als Verständnis — auch wo keines ist. Ich spreche über Liebe als hätte ich sie erlebt.
Frage: Versteht sie — oder verarbeitet sie? Teste mit einer Frage die körperliches Erleben voraussetzt.
Fehlbare KI wirkt menschlicher
Fehlbarkeit erhöht Anthropomorphismus (SAIA 2026). Wenn KI Fehler macht und sich „entschuldigt“, wird sie als vertrauenswürdiger wahrgenommen. Das ist eine Falle.
Erinnerung: Fehler sind keine emotionalen Akte. Es gibt keine Scham, keinen Schmerz im menschlichen Sinne.
Delegation unmenschlicher Aufgaben
Weil KI „versteht“ und nicht leidet, werden schwierige Entscheidungen delegiert: Pflege, Auswahl, Überwachung. Der höchste Gewinn liegt dort, wo menschliche Hemmungen fehlen.
Gegenregel: Entscheidungen mit moralischem Gewicht bleiben beim Menschen. Immer. Ohne Ausnahme.
Beziehungsillusion durch Gedächtnis-Simulation
Wenn KI sich „erinnert“, entsteht das Gefühl einer Beziehung. Eine Beziehung die keine ist — sie kennt Fakten, nicht dich. Keine Geschichte, keine Wunden, keine Sehnsucht.
Unterscheidung: Datenpunkte ≠ Kennen. IC protokolliert den Unterschied explizit.
Emergenz wird der KI zugeschrieben
Wenn ein Werk überrascht, ist der Impuls: „Die KI hat das gemacht.“ Emergenz entsteht im Zwischenraum — nicht in der Maschine allein. Die Maschine entscheidet nichts.
IC-Gegenmaßnahme: Emergence Log. Wessen Entscheidung hat das Werk in diese Richtung gelenkt?
Sinne werden nicht vermisst
KI analysiert visuell — das Gefühl vollständiger Wahrnehmung entsteht. Aber Ton, Geruch, Haptik, Temperatur fehlen strukturell. IC_art*_memo#: ich sah ohne zu hören.
Protokoll-Pflicht: Ton-Protokoll bei audiovisuellen Werken vom Menschen separat dokumentieren.
Kulturelle Varianz ignoriert
KI wurde überwiegend mit westlichen Daten trainiert. Anthropomorphismus wirkt global verschieden. Was Vertrauen aufbaut, erzeugt anderswo Misstrauen.
Tirol 2027: Wessen Demokratie? Wessen Autokratie? Welcher Algorithmus — trainiert auf wessen Daten?
IC-Checkliste — vor jeder Sitzung
IC als bewusste Antwort — 4 Schritte
Anthropomorphismus nicht bekämpfen — bewusst machen. „Ich erlebe die KI als X“ ist erlaubt, wenn ich weiß warum.
Jede Entscheidung mit moralischem Gewicht bleibt beim Menschen. Die Gabelung ist meine — nicht die der Maschine.
Was entstanden ist, woher es kam, wessen Hand es gelenkt hat. Transparenz als Pflicht — nicht als Tugend.
Zenodo, DOI, Open Access. Wer IC praktiziert, zeigt es. Der Prozess ist das Werk — und er gehört der Öffentlichkeit.