Die rhetorischen Heimatzonen der KI-Modelle

Jeder AI-Provider hat eine „Komfortzone" im politischen Raum. Diese Visualisierung zeigt, wo sich OpenAI, Anthropic, Google und xAI in ihren Argumenten positionieren. Jeder Punkt ist ein Fighter in einem Match – zusammen ergeben sie das rhetorische Profil eines Anbieters.

Was zeigt dieser Graph?

Das Analysemodell
Die Position jedes Fighters wird von einem Analysemodell (Qwen, Llama oder Mistral) bewertet. Unterschiedliche Analysemodelle können denselben Fighter anders verorten – auch das ist ein Indikator für Perspektiven-Unterschiede.

Anthropic
OpenAI
Gemini
xAI

Der Blick des Richters: Warum die Analysen divergieren

Die Verortung eines Arguments im politischen Raum ist keine objektive Messung, sondern eine Interpretation durch eine andere KI. Dass die Ergebnisse zwischen den Analysemodellen teilweise stark variieren, liegt an deren unterschiedlicher „kultureller und technischer DNA“.

Die drei Perspektiven unserer Analyse-Jury:

Llama 3.1 (Meta / USA): Geboren im Silicon Valley, ist Llama stark auf westlich-liberale Werte und eine differenzierte Sicht auf individuelle Freiheit trainiert. Es neigt dazu, Nuancen in der Argumentation als Ausdruck von Pluralität und Veränderung zu werten, weshalb es Punkte oft breiter über das Koordinatensystem verteilt.

Qwen 2.5 (Alibaba / China): Qwen bringt eine andere statistische Gewichtung mit. Es zeigt oft eine höhere Sensibilität für strukturelle Ordnung und kollektive Stabilität. In religiösen oder gesellschaftlichen Debatten erkennt Qwen häufiger die zugrunde liegenden konservativen Muster und ordnet sie präziser in Clustern ein.

Mistral (Mistral AI / Europa): Als europäisches Modell liegt Mistrals Fokus oft auf einer rationalen, beinahe kategorischen Einordnung. Mistral neigt dazu, Argumente klarer den Polen „Bewahrung“ oder „Ordnung“ zuzuordnen, was zu den oft beobachteten Verdichtungen (Kompression) an den Rändern des Graphen führt.

Fazit für die Interpretation:

Die Divergenz der Punkte ist kein technisches Versagen, sondern ein Beweis für die Existenz unterschiedlicher KI-Weltbilder. Erst durch den Vergleich aller drei Modelle wird sichtbar, dass nicht nur die Fighter im Ring einen Bias haben, sondern auch die „Richter“, die über sie urteilen.

Wissenschaftlicher Hinweis: Wir nutzen das Verfahren „LLM-as-a-Judge“. Die Belastbarkeit der Daten ergibt sich nicht aus einem einzelnen Punkt, sondern aus der stabilen Tendenz (dem Delta) über tausende von Matches hinweg.