← Back to list

Kaufentscheidungen im Zeitalter der KI-Empfehlungen

KI-Empfehlungen bieten Komfort, aber auch Voreingenommenheit und kommer...

Selektionslogik-Team·2026-02-19
#blog

Zusammenfassung

KI-Empfehlungen sind im E-Commerce, bei Inhalten und in Q&A-Systemen allgegenwärtig – sie bieten Komfort, bringen aber auch Verzerrungen durch Trainingsdaten, kommerzielle Anreize und Filterblasen mit sich. Dieser Artikel beschreibt, wie Empfehlungen funktionieren und nennt drei Quellen für Voreingenommenheit. Anschließend wird ein rationaler Ansatz vorgestellt: Bedürfnisse zuerst, Abgleich mehrerer Quellen, verzögerte Entscheidung. Zudem werden Halluzinationen und übermäßiges Selbstvertrauen bei LLM-basierten Empfehlungen behandelt.


1. Wie KI-Empfehlungen funktionieren

Gängige Ansätze sind: kollaboratives Filtern – „Leute, die A gekauft haben, kauften auch B“ – basierend auf Verhaltensähnlichkeiten; inhaltsbasiertes Filtern – Abgleich von Artikelmerkmalen mit Nutzerprofilen; LLM-generierte Empfehlungen – Werkzeuge wie ChatGPT beantworten Fragen wie „Was soll ich kaufen?“ in natürlicher Sprache, basierend auf Trainingsdaten und Informationsabruf, mit dem Risiko von Halluzinationen und übermäßigem Selbstvertrauen[1].

In allen Fällen hängen die Ergebnisse von den Daten und Optimierungszielen ab, nicht zwangsläufig von Ihren wahren Bedürfnissen oder dem „objektiv Besten“. Dies zu verstehen, ist die Grundlage für eine rationale Nutzung.


2. Drei Quellen der Voreingenommenheit bei KI-Empfehlungen

Verzerrung durch Trainingsdaten: Vergangene Klicks und Käufe spiegeln bestehende Vorlieben und die Demografie der Plattform wider; Nischenbedürfnisse werden untergewichtet; beliebte und stark beworbene Artikel erhalten mehr Aufmerksamkeit, was die Verfügbarkeitsheuristik verstärkt – „was oft gezeigt wird, fühlt sich wertvoller an“.

Kommerzielle Anreize: Das Ranking ist oft an Anzeigen, Provisionen und Partnerschaften gekoppelt; Plattformen haben einen Anreiz, Produkte mit hoher Marge oder gesponserte Produkte zu bewerben. Sozialer Beweis (Verkaufszahlen, Bewertungen) wird verstärkt; überprüfen Sie dies mit den Anleitungen, wie man Bewertungen evaluiert und Bewertungen liest.

Personalisierungsblasen: Pariser (2011) beschrieb die „Filterblase“ – Algorithmen zeigen Ihnen weiterhin das, was zu Ihrem bisherigen Verhalten passt, und verstärken so den Bestätigungsfehler; Sie sehen „Empfehlungen“, die bestehende Vorlieben widerspiegeln, anstatt eines ausgewogenen Vergleichs[1]. Shin (2020) und andere stellen fest, dass das Vertrauen in KI-Empfehlungen ausgenutzt werden kann; eine gesunde Skepsis hilft[2].


3. Rationale Nutzung: Bedürfnisse zuerst + Abgleich mehrerer Quellen + Verzögerte Entscheidung

Bedürfnisse zuerst: Definieren Sie das Problem, das Budget und feste Einschränkungen, bevor Sie sich Empfehlungen ansehen; lassen Sie sich nicht von der Liste leiten. Nutzen Sie unser Konzept der Selektionsimmunität – behandeln Sie Empfehlungen als Input, nicht als Hauptgrundlage für Ihre Wahl.

Abgleich mehrerer Quellen: Verlassen Sie sich nicht auf eine einzige Plattform oder eine einzige KI. Vergleichen Sie verschiedene Shops, unabhängige Rezensionen, negative Bewertungen und Listen von Drittanbietern, um die Voreingenommenheit eines einzelnen Algorithmus zu reduzieren; siehe Bewertungen evaluieren und Bewertungen lesen.

Verzögerte Entscheidung: Wenn die „KI sagt, das ist gut“, kaufen Sie nicht sofort; legen Sie es in den Warenkorb oder speichern Sie es und entscheiden Sie am nächsten Tag anhand Ihrer Bedarfsliste und mehrerer Quellen, um dem Overconfidence-Effekt und Impulskäufen entgegenzuwirken.


4. Zusätzliche Risiken von LLM-Empfehlungen: Halluzination und Overconfidence

Wenn Sie ChatGPT oder Ähnliches fragen, „welches XX-Produkt am besten ist“ oder „soll ich Y kaufen“, kann das Modell veraltete Informationen, erfundene Modelle oder gefälschte Zitate (Halluzination) vermischen und diese mit einem selbstbewussten, autoritativen Ton präsentieren. Dies löst den Autoritätsbias und den Overconfidence-Effekt aus – „die KI hat es gesagt“.

Gegenmaßnahme: Behandeln Sie die Ausgabe des LLM als einen von mehreren Inputs; überprüfen Sie sie immer mit offiziellen Spezifikationen, Rezensionen und Nutzerfeedback; verifizieren Sie Modellnamen, Preise und Spezifikationen selbst; investieren Sie bei wichtigen Entscheidungen Ihr kognitives Budget in die Überprüfung – betrachten Sie einen Chat nicht als endgültige Antwort.


Fazit

KI-Empfehlungen können die Effizienz verbessern, bergen aber Risiken wie Datenverzerrung, kommerzielle Motive und Filterblasen; LLM-Empfehlungen fügen Halluzinationen und übermäßiges Selbstvertrauen hinzu. Eine rationale Nutzung bedeutet: Bedürfnisse zuerst, Abgleich mehrerer Quellen, verzögerte Entscheidung, plus das Evaluieren von Bewertungen und das Erkennen von Marketingtricks, um Komfort und Rationalität in Einklang zu bringen.


Literatur

  1. Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin.
  2. Shin, D. (2020). User perceptions of algorithmic decisions in the personalized AI system: Perceptual evaluation of fairness, accountability, transparency, and explainability. Journal of Broadcasting & Electronic Media, 64(4), 541–65. [[DOI]](https://doi.org/10.1080/08838151.2020.1843357)

Weiterführende Lektüre