Wer bestimmt, was als glaubwürdig gilt?

Quellenlogiken, Bias und Autorität in generativen KI Systemen. Generative KI Systeme übernehmen zunehmend eine Rolle, die bislang klassischen Suchmaschinen, Medien und Institutionen vorbehalten war: Sie strukturieren öffentliches Wissen.

AI Apps auf Smartphone

Foto: aerps.com / Unsplash

Indem sie Antworten erzeugen, statt Dokumente zu listen, entscheiden sie implizit darüber, welche Quellen sichtbar werden, welche Perspektiven dominieren und welche Akteure als glaubwürdig erscheinen.

Diese Entwicklung wirft eine zentrale Frage auf: Nach welchen Logiken entsteht Autorität in KI generierten Antworten?

Generative KI als Wissensinstanz

Während Suchmaschinen Inhalte vermitteln, erzeugen generative Systeme eigenständige Darstellungen von Wirklichkeit. Forschung zeigt, dass Nutzerinnen und Nutzer diese Antworten häufig als kohärent, flüssig und informativ wahrnehmen – selbst dann, wenn unklar bleibt, wie Aussagen zustande kommen oder auf welche Quellen sie sich stützen (Li & Sinnamon, 2024).

Gerade diese Kombination aus sprachlicher Qualität und Intransparenz verleiht generativen Systemen Autorität. Antworten wirken vollständig, auch wenn Auswahl und Gewichtungsprozesse für Aussenstehende nicht nachvollziehbar sind.

Quellenwahl als Machtfaktor

Mehrere Studien belegen, dass generative Systeme stark auf hochautoritative, kommerzielle Publisher zurückgreifen. Wukoson und Fortuna (2024) zeigen, dass Trainingsdaten führender LLMs überproportional Inhalte etablierter Medienhäuser und grosser Plattformen enthalten. Kleinere, lokale oder spezialisierte Quellen sind deutlich unterrepräsentiert.

Diese Asymmetrie wirkt sich direkt auf die Sichtbarkeit von Organisationen aus. Was nicht in den dominanten Quellen erscheint, hat geringere Chancen, in KI Antworten berücksichtigt zu werden – unabhängig von inhaltlicher Qualität.

Bias in Darstellung und Empfehlung

Die Frage der Quellenwahl ist eng mit systematischen Verzerrungen verknüpft. Kamruzzaman et al. (2024) zeigen, dass LLMs globale Marken gegenüber lokalen Marken bevorzugen – selbst dann, wenn Produkte vergleichbar sind. Ähnliche Effekte lassen sich bei Länder, Themen und Tonalitätsbias beobachten.

Li und Sinnamon (2024) weisen zudem darauf hin, dass generative Systeme emotionale Signale aus Nutzeranfragen übernehmen und verstärken. Kritisch formulierte Fragen führen zu kritischeren Antworten, wohlwollende Fragen zu positiveren Darstellungen. Damit reproduzieren KI Systeme nicht nur vorhandene Narrative, sondern verstärken sie.

Autorität ohne Transparenz

Ein zentrales Problem liegt in der fehlenden Nachvollziehbarkeit. Zwar integrieren einige Systeme Quellenangaben, doch Forschung zeigt, dass diese:

  • selektiv,
  • inkonsistent,
  • und teilweise schwer überprüfbar sind (Wu et al., 2025).

Gleichzeitig verlassen sich Nutzerinnen und Nutzer häufig auf heuristische Urteile über Glaubwürdigkeit, statt Inhalte kritisch zu prüfen. Dieses Verhalten ist aus der Informationsforschung bekannt, erhält durch generative KI jedoch neue Relevanz, da Antworten als verdichtete Wissensrepräsentation auftreten.

Konsequenzen für Organisationen und Öffentlichkeit

Für Organisationen bedeutet diese Entwicklung eine neue Form reputativer Abhängigkeit. Wahrnehmung entsteht nicht mehr nur durch eigene Kommunikation oder Medienberichterstattung, sondern zunehmend durch implizite KI Darstellungen, die sich kaum direkt beeinflussen lassen.

Für die Öffentlichkeit stellt sich eine weitergehende Frage: Wenn generative Systeme als Wissensinstanz fungieren, ohne dass ihre Quellenlogiken transparent sind, entsteht ein Spannungsfeld zwischen Effizienz, Vertrauen und demokratischer Kontrolle.

Beobachtung statt Intervention

Die Forschungslage legt nahe, dass vorschnelle Optimierungsversuche wenig zielführend sind. Stattdessen gewinnt die systematische Beobachtung an Bedeutung:

  • Welche Quellen dominieren KI Antworten?
  • Wie stabil sind Darstellungen über Zeit?
  • Wo zeigen sich systematische Verzerrungen?

Nur durch solche Analysen lassen sich Wirkungen generativer Systeme verstehen und einordnen.

Fazit

Generative KI Systeme entscheiden nicht explizit, was wahr ist. Doch sie entscheiden darüber, was sichtbar wird, was zitiert wird und welche Perspektiven als legitim erscheinen. Diese Entscheidungen sind nicht neutral, sondern das Ergebnis von Daten, Architektur und impliziten Präferenzen.

Wer sich mit generativer KI beschäftigt, sollte deshalb weniger fragen, wie man Systeme beeinflusst, sondern zunächst verstehen, wie sie Autorität erzeugen.

Literatur (Auswahl)

Aggarwal, P., et al. (2024). GEO: Generative Engine Optimization. ACM SIGKDD.
Kamruzzaman, M., Nguyen, H. M., & Kim, G. L. (2024). Global is Good, Local is Bad? arXiv.
Li, A., & Sinnamon, L. (2024). Generative AI Search Engines as Arbiters of Public Knowledge. ASIS&T.
Wu, Y., et al. (2025). What Generative Search Engines Like. arXiv.
Wukoson, G., & Fortuna, J. (2024). The Predominant Use of High-Authority Commercial Web Publisher Content. SSRN.

Titelbild: aerps.com / Unsplash

Who determines what counts as credible?

Source logics, bias, and authority in generative AI systems. Generative AI systems are increasingly taking on a role previously reserved for traditional search engines, media, and institutions: they structure public knowledge.

AI Apps on smartphone

Photo: aerps.com / Unsplash

By generating answers instead of listing documents, they implicitly decide which sources become visible, which perspectives dominate, and which actors appear credible.

This development raises a central question: By what logics does authority arise in AI generated answers?

Generative AI as a knowledge authority

While search engines mediate content, generative systems create independent representations of reality. Research shows that users often perceive these answers as coherent, fluent, and informative – even when it remains unclear how statements come about or what sources they are based on (Li & Sinnamon, 2024).

It is precisely this combination of linguistic quality and opacity that lends generative systems authority. Answers appear complete, even when selection and weighting processes are not traceable for outsiders.

Source selection as a power factor

Several studies show that generative systems rely heavily on high authority, commercial publishers. Wukoson and Fortuna (2024) show that training data from leading LLMs disproportionately contains content from established media houses and large platforms. Smaller, local, or specialised sources are significantly underrepresented.

This asymmetry directly affects the visibility of organisations. What does not appear in the dominant sources has less chance of being considered in AI answers – regardless of content quality.

Bias in representation and recommendation

The question of source selection is closely linked to systematic distortions. Kamruzzaman et al. (2024) show that LLMs prefer global brands over local brands – even when products are comparable. Similar effects can be observed in country, topic, and tonality bias.

Li and Sinnamon (2024) also point out that generative systems adopt and amplify emotional signals from user queries. Critically formulated questions lead to more critical answers, benevolent questions to more positive representations. Thus, AI systems not only reproduce existing narratives, but amplify them.

Authority without transparency

A central problem lies in the lack of traceability. While some systems integrate source references, research shows that these are:

  • selective,
  • inconsistent,
  • and sometimes difficult to verify (Wu et al., 2025).

At the same time, users often rely on heuristic judgements about credibility rather than critically examining content. This behaviour is known from information research, but gains new relevance through generative AI, as answers appear as condensed knowledge representations.

Consequences for organisations and the public

For organisations, this development means a new form of reputational dependency. Perception no longer arises only through their own communication or media coverage, but increasingly through implicit AI representations that can hardly be directly influenced.

For the public, a further question arises: If generative systems function as knowledge authorities without their source logics being transparent, a tension emerges between efficiency, trust, and democratic control.

Observation instead of intervention

The research situation suggests that hasty optimisation attempts are not very effective. Instead, systematic observation is gaining importance:

  • Which sources dominate AI answers?
  • How stable are representations over time?
  • Where do systematic distortions appear?

Only through such analyses can the effects of generative systems be understood and contextualised.

Conclusion

Generative AI systems do not explicitly decide what is true. But they decide what becomes visible, what is cited, and which perspectives appear legitimate. These decisions are not neutral, but the result of data, architecture, and implicit preferences.

Those who engage with generative AI should therefore ask less how to influence systems, but first understand how they generate authority.

References (selection)

Aggarwal, P., et al. (2024). GEO: Generative Engine Optimization. ACM SIGKDD.
Kamruzzaman, M., Nguyen, H. M., & Kim, G. L. (2024). Global is Good, Local is Bad? arXiv.
Li, A., & Sinnamon, L. (2024). Generative AI Search Engines as Arbiters of Public Knowledge. ASIS&T.
Wu, Y., et al. (2025). What Generative Search Engines Like. arXiv.
Wukoson, G., & Fortuna, J. (2024). The Predominant Use of High-Authority Commercial Web Publisher Content. SSRN.

Cover image: aerps.com / Unsplash