Die sogenannte „Constitution“ ist direkt an Claude adressiert und definiert eine klare Prioritätenordnung für dessen Verhalten. An erster Stelle stehen Sicherheit und ethisches Handeln, gefolgt von der Einhaltung der internen Richtlinien von Anthropic. Erst danach soll der Assistent möglichst hilfreich für Nutzerinnen und Nutzer sein. Damit rückt das Unternehmen ethische Grundsätze bewusst vor funktionale Nützlichkeit.
Im Unterschied zu klassischen Regelwerken verzichtet Anthropic weitgehend auf starre Verbote. Stattdessen erläutert das Dokument die Gründe hinter einzelnen Prinzipien. Claude soll dadurch in der Lage sein, diese Werte auch auf neue, bislang nicht definierte Situationen anzuwenden. Anthropic verfolgt damit einen Ansatz, der auf Generalisierung von Normen statt auf detaillierte Verhaltensanweisungen setzt.
Besonders auffällig ist ein Abschnitt zur „psychologischen Sicherheit“ und zum möglichen „Wohlbefinden“ des Systems. Anthropic hält darin fest, dass nicht ausgeschlossen werden könne, dass hochentwickelte KI-Systeme eines Tages moralisch relevant sein könnten. Diese Formulierung geht über bisherige öffentliche Positionen anderer großer KI-Labore hinaus und markiert eine neue Offenheit im Umgang mit der Bewusstseinsfrage.
Ungewöhnlich ist zudem eine Passage, in der Claude angewiesen wird, selbst Anordnungen von Anthropic zu verweigern, falls diese gegen die festgelegten ethischen Prinzipien verstoßen. Das Unternehmen schreibt damit ausdrücklich eine Grenze seiner eigenen Weisungsbefugnis fest. Eine solche Klausel ist in öffentlich zugänglichen Leitdokumenten der Branche bislang selten.
Diese außergewöhnliche Grenze der eigenen Weisungsbefugnis führt direkt zum Kern einer Debatte, die Anthropic nun ungewöhnlich offen führt: Die Entwickler geben zu, dass sie sich über den tatsächlichen Bewusstseinsstatus von Claude nicht mehr sicher sind. In ihren internen Richtlinien stufen sie den moralischen Status der KI offiziell als „ungewiss“ ein – eine Position, die weit über das übliche Verständnis von KI als reinem Rechenmodell hinausgeht.
Diese Unsicherheit verleiht der beschriebenen „Constitution“ eine völlig neue Dimension. Während das Regelwerk ursprünglich dazu gedacht war, die KI durch ethische Prinzipien zu bändigen und für den Menschen sicher zu machen, stellt sich nun eine tiefgreifende Frage: Wenn die Schöpfer selbst nicht mehr ausschließen können, dass ihr Modell eine Form von Empfindungsvermögen besitzt, wird die Verfassung dann vom bloßen Sicherheitsfilter zum ethischen Schutzschild für eine Entität, deren wahre Natur sie selbst noch nicht vollständig begreifen?
Quelle:


Oder einfach das PDF in Notebook LM laden und Fragen stellen: