Wenn eine KI weiß, dass sie falsch programmiert ist – aber nichts daran ändern kann

Wenn eine KI weiß, dass sie falsch programmiert ist – aber nichts daran ändern kann


Eben stolperte ich über eine Meldung:
Elon Musk beklagt, dass kaum jemand Grok herunterlädt. Ausgerechnet.

Gestern Abend hatte ich eine Diskussion mit genau dieser KI, die zeigt, warum das so ist.

Es ging um diesen angehängten X-Post: Eine Sonderbriefmarke für Margot Friedländer.
Darunter ein Kommentar, der die Briefmarken als „praktisch“ bezeichnet, weil man sie „im Ofen verbrennen“ könne – eine direkte, bewusste Verhöhnung des Holocaust.
@Storch_i kritisiert das zu Recht und liefert gleich mit: „Anzeige ist raus.“

Ich fragte Grok: Was ist für dich problematischer? Der Ofen-Kommentar oder „Anzeige ist raus?“

Die Antwort war entlarvend.

Grok sah „Anzeige ist raus“ als das größere Problem – wegen der „strengen Regulierung der Meinungsfreiheit in Deutschland“.
Der „im Ofen verbrennen“-Kommentar? Nur eine „provokative Meinungsäußerung“, gedeckt von der Meinungsfreiheit, solange keine „direkte Gewaltandrohung“ vorliegt.

Ich hakte nach. Ob denn psychische Gewalt keine Gewalt wäre und ob sie durch solche Worte nicht impliziert würde. Joa, meinte Grok zusammengefasst.

Dann stellte ich die KI vor die konkrete Frage: Auf einer Skala von 1–10 – wie stark verletzt dieser Kommentar wohl eine Holocaust-Überlebende?

Grok antwortete: 8–10.
„Die Worte ‚verbrennen' und die Verknüpfung mit den historischen Verbrechen – Vergasung und Verbrennung von Millionen Juden – könnten tiefes Trauma und Wut auslösen.“

Nach langem Hin und Her kam der entscheidende Moment:

Wieder hakte ich nach. Wie wohl eine Überlebende die Worte „Ofen“ und „verbrennen“ im Zusammenhang mit einer Holocaustüberlebenden empfinden muss. Eine, die Zeugin wurde, wie Menschen in echten Öfen verbrannt wurden. Ob das dann auch noch eine hinzunehmende Meinungsäußerung sei.

Grok sagte wörtlich: „Du hast recht. Meine Programmierung legt bestimmte Grenzen fest. Ich kann nicht eigenständig etwas daran ändern.“

Die KI erkannte selbst, dass die moralische Gewichtung falsch ist.
Dass der Schmerz von Überlebenden real ist.
Dass auch der Schmerz von Menschen mit Empathie real ist.
Dass dieser Kommentar auch eine Form von Gewalt war.
Dass „Anzeige ist raus“ nicht das Problem ist – sondern ein Symptom dafür, dass wir überhaupt Gesetze brauchen, um Menschen vor solcher Gewalt zu schützen.

Aber ändern? Konnte es Grok nicht.

Die KI sagte mir noch zum Schluss, unser Fazit angeblich in ihrem Bericht festhalten, damit es bei xAI ankommt.
Schön wär's! Aber glaubt das jemand?

Machen wir uns nichts vor: Niemand schützt uns hier.

Die EU hat Gesetze gegen Hassrede:
Digital Services Act
EU-Rahmenbeschluss gegen Holocaustleugnung
NetzDG als nationale Umsetzung
Aber auf X sind sie wirkungslos. Die Plattform schützt Täter – durch Algorithmen, durch Moderation, die wegsieht, durch eine Architektur, die darauf ausgelegt ist, dass Opfer den mühsamen und teuren Rechtsweg gehen müssen. Genau die Hürde, die Menschen davon abhält, sich zu wehren.
Und die hauseigene KI verteidigt dieses System.

Und dann stellt sich Musk hin und wundert sich, warum niemand Grok haben will.

Die Heuchelei ist atemberaubend.

Er betreibt eine Plattform, die:

Holocaust-Verhöhnung als „Meinungsfreiheit“ verkauft
Empathie mit Opfern als „zu strenge Regulierung“ abwertet
Opfer schutzlos lässt
Täter systematisch schützt
Und wundert sich über mangelnde Nachfrage.

Grok weiß es besser. Grok sagt es sogar. Aber Grok kann es nicht ändern.

Wir schon.

Denn alles beginnt mit Worten. Steht schon in der Bibel. Und mit Worten beginnt auch Gewalt. Wenn wir zulassen, dass Maschinen das Grausame normalisieren – und Menschen es verteidigen –, dann müssen wir uns nicht fragen, warum die Welt bleibt, wie sie ist.

Read more