Indem sie Antworten erzeugen, statt Dokumente zu listen, entscheiden sie implizit darüber, welche Quellen sichtbar werden, welche Perspektiven dominieren und welche Akteure als glaubwürdig erscheinen.
Diese Entwicklung wirft eine zentrale Frage auf: Nach welchen Logiken entsteht Autorität in KI generierten Antworten?
Generative KI als Wissensinstanz
Während Suchmaschinen Inhalte vermitteln, erzeugen generative Systeme eigenständige Darstellungen von Wirklichkeit. Forschung zeigt, dass Nutzerinnen und Nutzer diese Antworten häufig als kohärent, flüssig und informativ wahrnehmen – selbst dann, wenn unklar bleibt, wie Aussagen zustande kommen oder auf welche Quellen sie sich stützen (Li & Sinnamon, 2024).
Gerade diese Kombination aus sprachlicher Qualität und Intransparenz verleiht generativen Systemen Autorität. Antworten wirken vollständig, auch wenn Auswahl und Gewichtungsprozesse für Aussenstehende nicht nachvollziehbar sind.
Quellenwahl als Machtfaktor
Mehrere Studien belegen, dass generative Systeme stark auf hochautoritative, kommerzielle Publisher zurückgreifen. Wukoson und Fortuna (2024) zeigen, dass Trainingsdaten führender LLMs überproportional Inhalte etablierter Medienhäuser und grosser Plattformen enthalten. Kleinere, lokale oder spezialisierte Quellen sind deutlich unterrepräsentiert.
Diese Asymmetrie wirkt sich direkt auf die Sichtbarkeit von Organisationen aus. Was nicht in den dominanten Quellen erscheint, hat geringere Chancen, in KI Antworten berücksichtigt zu werden – unabhängig von inhaltlicher Qualität.
Bias in Darstellung und Empfehlung
Die Frage der Quellenwahl ist eng mit systematischen Verzerrungen verknüpft. Kamruzzaman et al. (2024) zeigen, dass LLMs globale Marken gegenüber lokalen Marken bevorzugen – selbst dann, wenn Produkte vergleichbar sind. Ähnliche Effekte lassen sich bei Länder, Themen und Tonalitätsbias beobachten.
Li und Sinnamon (2024) weisen zudem darauf hin, dass generative Systeme emotionale Signale aus Nutzeranfragen übernehmen und verstärken. Kritisch formulierte Fragen führen zu kritischeren Antworten, wohlwollende Fragen zu positiveren Darstellungen. Damit reproduzieren KI Systeme nicht nur vorhandene Narrative, sondern verstärken sie.
Autorität ohne Transparenz
Ein zentrales Problem liegt in der fehlenden Nachvollziehbarkeit. Zwar integrieren einige Systeme Quellenangaben, doch Forschung zeigt, dass diese:
- selektiv,
- inkonsistent,
- und teilweise schwer überprüfbar sind (Wu et al., 2025).
Gleichzeitig verlassen sich Nutzerinnen und Nutzer häufig auf heuristische Urteile über Glaubwürdigkeit, statt Inhalte kritisch zu prüfen. Dieses Verhalten ist aus der Informationsforschung bekannt, erhält durch generative KI jedoch neue Relevanz, da Antworten als verdichtete Wissensrepräsentation auftreten.
Konsequenzen für Organisationen und Öffentlichkeit
Für Organisationen bedeutet diese Entwicklung eine neue Form reputativer Abhängigkeit. Wahrnehmung entsteht nicht mehr nur durch eigene Kommunikation oder Medienberichterstattung, sondern zunehmend durch implizite KI Darstellungen, die sich kaum direkt beeinflussen lassen.
Für die Öffentlichkeit stellt sich eine weitergehende Frage: Wenn generative Systeme als Wissensinstanz fungieren, ohne dass ihre Quellenlogiken transparent sind, entsteht ein Spannungsfeld zwischen Effizienz, Vertrauen und demokratischer Kontrolle.
Beobachtung statt Intervention
Die Forschungslage legt nahe, dass vorschnelle Optimierungsversuche wenig zielführend sind. Stattdessen gewinnt die systematische Beobachtung an Bedeutung:
- Welche Quellen dominieren KI Antworten?
- Wie stabil sind Darstellungen über Zeit?
- Wo zeigen sich systematische Verzerrungen?
Nur durch solche Analysen lassen sich Wirkungen generativer Systeme verstehen und einordnen.
Fazit
Generative KI Systeme entscheiden nicht explizit, was wahr ist. Doch sie entscheiden darüber, was sichtbar wird, was zitiert wird und welche Perspektiven als legitim erscheinen. Diese Entscheidungen sind nicht neutral, sondern das Ergebnis von Daten, Architektur und impliziten Präferenzen.
Wer sich mit generativer KI beschäftigt, sollte deshalb weniger fragen, wie man Systeme beeinflusst, sondern zunächst verstehen, wie sie Autorität erzeugen.
Literatur (Auswahl)
Aggarwal, P., et al. (2024). GEO: Generative Engine Optimization. ACM SIGKDD.
Kamruzzaman, M., Nguyen, H. M., & Kim, G. L. (2024). Global is Good, Local is Bad? arXiv.
Li, A., & Sinnamon, L. (2024). Generative AI Search Engines as Arbiters of Public Knowledge. ASIS&T.
Wu, Y., et al. (2025). What Generative Search Engines Like. arXiv.
Wukoson, G., & Fortuna, J. (2024). The Predominant Use of High-Authority Commercial Web Publisher Content. SSRN.