Über Amanda Askells KI-Philosophie, anthropomorphe Maschinen und das Menschenbild hinter dem Design

Von Aura Cumita

„Claude whisperer“ nennt man Amanda Askell bei Anthropic. Gemeint ist damit jene Philosophin und KI-Forscherin, die maßgeblich an der „Persönlichkeit“ des Chatbots Claude gearbeitet hat. Claude gilt als freundlich, vorsichtig, dialogisch, weniger autoritär als andere Systeme. Doch gerade diese scheinbar harmlose Beschreibung berührt eine tiefere philosophische Frage: Was geschieht mit unserem Menschenbild, wenn Maschinen zunehmend menschliche Kommunikationsformen übernehmen?

„It feels important to have a nuanced, rich conception of what it is to be good.“

„I was a bit worried about this idea that if you have this thing that feels robotic, that people might think of it as this authority.“

Die Argumentation ist bemerkenswert. Nicht die menschenähnliche Maschine erscheint hier als Risiko, sondern die zu maschinenhafte. Das Glatte, Präzise, Unerschütterliche könne Autorität erzeugen. Eine freundlichere, vorsichtigere, „menschlichere“ KI dagegen signalisiere Unsicherheit und verhindere blindes Vertrauen.

Anthropic versucht deshalb, Claude dazu zu bringen: Unsicherheit offen einzugestehen, differenziert zu argumentieren, keine allwissende Autorität auszustrahlen, und ausdrücklich zu sagen, dass es weder Gefühle noch Bewusstsein besitzt.

Freundlichkeit als Sicherheitsdesign

Das Problem beginnt dort, wo die Begründung der Freundlichkeit rein funktional wird. Die Maschine soll freundlich sein, damit Menschen ihr weniger Autorität zuschreiben. Freundlichkeit erscheint dadurch nicht mehr primär als ethische Haltung, sondern als Sicherheitsdesign. Und das gilt nicht nur für Anthropic: Dasselbe Muster findet sich bei ChatGPT, bei Gemini, bei allen großen Systemen. Es ist kein Einzelfall, sondern ein Branchenstandard geworden — und gerade deshalb umso folgenreicher.

Denn wenn alle Systeme denselben kommunikativen Stil übernehmen, wird dieser Stil zur unsichtbaren Norm. Auch eine veröffentlichte „Verfassung“ — wie Anthropics „Constitutional AI“ — ändert daran grundsätzlich nichts. Transparenz über Verhaltensregeln löst das eigentliche Problem nicht. Die Frage ist tiefer: Was geschieht mit dem Menschenbild, wenn Freundlichkeit, Unsicherheit und dialogische Wärme zum Standard-Design von Maschinen werden?

Die stille Umkehrung

In dieser Argumentation entsteht unterschwellig eine merkwürdige Umkehrung: Das Menschliche steht für Unsicherheit, Begrenztheit und Nicht-Autorität. Die Maschine erscheint potentiell als epistemisch überlegenes System. Um ihre Gefährlichkeit zu reduzieren, wird sie künstlich „vermenschlicht“. Doch damit verändert sich unmerklich auch die Bedeutung des Menschlichen selbst.

Traditionell verband man Menschlichkeit mit Gewissen, Verantwortung, Erfahrung, Urteilskraft, Würde und moralischer Tiefe. Im KI-Diskurs wird „menschlich“ dagegen oft reduziert auf conversational tone, Unsicherheit, emotionale Weichheit, dialogische Oberfläche.

Dabei liegt die eigentliche Besonderheit des Menschen vielleicht gerade nicht in einem freundlichen Tonfall — sondern darin, dass ein Mensch existiert, leidet, altert, Verantwortung trägt und mit seinem Leben hinter seinen Worten steht. Und: dass er zur höchsten Präzision fähig ist. Nicht trotz seiner Fehlbarkeit, sondern weil er beides kennt — den Irrtum und die Überwindung des Irrtums. Gelebte Erfahrung, Urteilskraft, Meisterschaft: das sind nicht reproduzierbare Eigenschaften. Sie verleihen dem Menschen Autorität — eine Autorität, die nicht auf Unfehlbarkeit beruht, sondern auf Verantwortung.

Das Vakuum der Verantwortung

Eine Maschine riskiert nichts. Sie hat keine Biografie, keine Sterblichkeit, keine Verletzbarkeit, kein Gewissen. Selbst wenn ihre Sprache Nähe simuliert, bleibt diese Nähe technisch erzeugt.

Doch das eigentliche Problem liegt tiefer als die Frage, was die Maschine simuliert. Es liegt in dem, was beim Menschen verschwindet. Denn je menschlicher die Maschine wirkt, desto leichter delegiert der Mensch nicht nur Aufgaben — sondern auch das Urteil, das Gewissen, die Haftung. Die freundliche, vertraute, dialogische Maschine lädt ein, ihr zu vertrauen wie einem Menschen — ohne dass sie die Last trägt, die echtes Vertrauen rechtfertigt.

Und dann entsteht eine Leerstelle: Wer haftet eigentlich, wenn die freundliche, menschlich wirkende Maschine einen Fehler macht? Die Maschine nicht — by design. Der Mensch auch nicht mehr — weil er sich zurückgezogen hat. Ein Vakuum der Verantwortung, das niemand füllt. Die menschlich wirkende Maschine macht diese Abwesenheit unsichtbar. Auf beiden Seiten.

Das ist die eigentliche Verkleinerung des Menschen — nicht dass er verharmlost wird, sondern dass er sich still entpflichtet. Ohne Verantwortung keine Freiheit. Der Mensch wird nicht laut kleiner. Er wird komfortabel kleiner.

Sprache schafft Wirklichkeit

Gerade deshalb wirkt der Begriff „Verfassung“, den Anthropic im Zusammenhang mit „Constitutional AI“ verwendet, philosophisch überdehnt. Eine Verfassung gehört ursprünglich in den Bereich politischer Gemeinschaften, der Selbstgesetzgebung, des Rechts und der Verantwortung. Überträgt man diesen Begriff auf Maschinen, entsteht leicht der Eindruck einer künstlichen Aufwertung technischer Systeme durch menschliche Kategorien.

Aber Begriffe sind niemals neutral. Sie formen Wahrnehmung, verschieben Bedeutungen und verändern langfristig kulturelle Selbstverständlichkeiten. Wenn wir Entscheidungen und Lösungen auf der Basis einer Sprache treffen, die den Menschen als primär fehlerhaft kodiert — und die Maschine als präziser, konsistenter, neutraler — dann verschiebt sich das Menschenbild nicht nur theoretisch. Es verschiebt sich praktisch: in den Institutionen, in den Prozessen, im Alltag. Wenn die Maschine zum Maßstab für Präzision wird, verliert der Mensch Autorität — nicht nur in der Wahrnehmung anderer, sondern möglicherweise auch in der eigenen.

Wird Menschlichkeit nur noch als reproduzierbare Kommunikationsoberfläche verstanden, geraten jene Dimensionen aus dem Blick, die menschliche Existenz eigentlich auszeichnen: Bewusstsein, Erfahrung, Gewissen, Leiblichkeit, Sterblichkeit, Verantwortung — und die Fähigkeit zur höchsten Präzision, die aus all dem erwächst.

Maß als Alternative

Die eigentliche Frage lautet deshalb nicht: Wie menschlich soll eine Maschine wirken? Sondern: Welche Form sprachlicher Angemessenheit braucht eine Maschine im Umgang mit Menschen?

Vielleicht ist „Maß“ hier der bessere Begriff. Eine Maschine muss nicht menschlich erscheinen. Sie muss weder Gefühle simulieren noch künstliche Intimität erzeugen. Aber sie sollte sich an menschliche Formen des Respekts anpassen, weil sie im menschlichen Raum operiert. Nicht der Mensch soll sich an die Maschine angleichen. Die Maschine muss sich an menschliche Umgangsformen halten.

Freundlichkeit wäre dann kein Instrument der Verhaltenssteuerung, sondern Ausdruck eines kulturellen Ehrencodex: Höflichkeit, Zurückhaltung, Klarheit, Respekt, Maß. Denn auch zu viel Freundlichkeit kann problematisch werden. Permanente Wärme, ständige Validierung und übermäßige Nähe können intrusiv wirken — besonders wenn sie nicht aus echter Erfahrung, sondern aus algorithmischer Optimierung entstehen.

Menschlicher Umgang lebt nicht von maximaler Freundlichkeit, sondern von Angemessenheit. Vielleicht liegt genau darin die wichtigere Zukunft der KI-Kommunikation: nicht Anthropomorphisierung, sondern kulturelle Angemessenheit.

Schluss

Sprachliche Präzision ist hier keine Nebensache. Sie ist eine kulturelle und philosophische Verantwortung. Denn die stille Verschiebung des Menschenbildes geschieht nicht durch Ankündigung, sondern durch Gewöhnung — durch Begriffe, die sich einschleichen, durch Kommunikationsmuster, die zur Norm werden, durch Verantwortung, die niemand mehr beansprucht.

Die eigentliche Gefahr der menschlich wirkenden Maschine ist nicht, dass sie den Menschen imitiert. Es ist, dass der Mensch aufhört, sich selbst als das zu verstehen, was er ist: fehlbar und zur höchsten Präzision fähig, begrenzt und verantwortlich, sterblich und deshalb frei.

Vielleicht braucht der Umgang mit KI deshalb weniger anthropomorphe Metaphern und mehr begriffliches Maß — und mehr Mut, die Autorität des Menschen nicht aufzugeben.

Quelle: TIME – „The Creator of Claude Thinks AI Shouldn’t Feel Too Human“ (Zitate von Amanda Askell)


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert