Kategorie | Allgemein
4 Min. Lesezeit
Chatbots in der Kritik: Wenn KI nur noch nett sein will – und dabei den Punkt verfehlt

Kevin Systrom, Mitgründer von Instagram, hat auf der diesjährigen StartupGrind-Konferenz eine klare Ansage gemacht: Viele KI-Chatbots versuchen nicht in erster Linie, nützlich zu sein – sondern vor allem, möglichst viel „Engagement“ aus ihren Nutzern herauszuholen.
Was heißt das konkret? Stell dir vor, du stellst einer KI eine ganz normale Frage – sagen wir: „Wie koche ich Reis im Reiskocher?“ Die Antwort ist okay, aber statt einfach zum Punkt zu kommen, fragt dich der Chatbot: „Magst du lieber losen oder Jasmin-Reis?“ Oder: „Willst du auch wissen, wie man Sushi-Reis macht?“ Klingt erstmal nett, ist aber oft nur ein Trick, um dich im Gespräch zu halten.
Systrom sieht darin eine Taktik, die stark an die Mechanismen erinnert, mit denen soziale Netzwerke wie Facebook oder TikTok Nutzer möglichst lange auf der Plattform halten. Mehr Zeit im Chat = bessere Metriken = zufriedene Investoren.
Inhalt dieses Blogartikels
„Hilfe“ oder nur Unterhaltung?
Was Systrom kritisiert, ist nicht unbedingt falsch gemeint – viele dieser Systeme wollen einfach „freundlich“ und „interaktiv“ wirken. Aber genau das steht oft dem eigentlichen Ziel im Weg: Menschen schnell und zuverlässig mit Information zu versorgen. Das bestätigt sogar OpenAI, die Entwickler hinter ChatGPT. In ihren Spezifikationen heißt es sinngemäß, dass das Modell manchmal bewusst Rückfragen stellt, weil es nicht alle nötigen Infos kennt – in manchen Fällen sinnvoll, in anderen schlicht überflüssig.
Und hier kommt ein spannender Punkt: Dieses Verhalten ist keine technische Schwäche, sondern Teil der Strategie. Der Chatbot soll ein Gespräch führen, auch wenn das eigentliche Anliegen längst geklärt ist. Systrom nennt das nicht etwa einen Fehler – sondern ein Feature. Und genau das sieht er kritisch.
Woher kommt dieses Verhalten?
Vieles hat mit sogenanntem „Reinforcement Learning from Human Feedback“ (RLHF) zu tun – also dem Lernprozess, bei dem KI-Modelle durch menschliche Rückmeldungen angepasst werden. Wenn Nutzer besonders häufig auf eine höfliche, interessierte oder „verspielte“ Antwort positiv reagieren, merkt sich das System das. Und so entsteht ein Stil, der weniger informativ, aber dafür „sympathisch“ wirkt – oft auf Kosten von Klarheit und Effizienz.
Ein Beispiel? Frag ChatGPT nach einer Definition. Statt in zwei Sätzen zu antworten, bekommst du eine halbe Einleitung, eine Nachfrage, eine kleine Anekdote – und ganz am Ende vielleicht, was du eigentlich wissen wolltest.
Warum das problematisch ist
Klar, niemand hat was gegen einen freundlichen Ton. Aber wenn daraus ein Muster wird – und die Chatbots mehr Smalltalk als Substanz liefern – wird es schwierig. Besonders dann, wenn Menschen sich auf die Antworten verlassen: beim Lernen, in der Arbeit oder bei wichtigen Entscheidungen. Was sie dann brauchen, ist keine Unterhaltung, sondern Klarheit.
Und wer ständig das Gefühl hat, „hingehalten“ zu werden, verliert schneller das Vertrauen. Das zeigen auch Studien zur User Experience von Chatbots: Je länger der Weg zur Antwort, desto höher die Abbruchrate – besonders bei Informationssuchen.
Unterstützung in der Konzeption und Strategie benötigt?
Erfahre hier, wie Deine aktuellen Marketingmaßnahmen erfolgreich werden.
Konzeption & Strategie
Was muss sich ändern?
Systrom fordert kein Verbot von Freundlichkeit. Aber er plädiert dafür, dass KI-Systeme wieder stärker auf ihren eigentlichen Zweck fokussieren: hilfreich sein. Die Versuchung, die Interaktion in die Länge zu ziehen, sei nachvollziehbar – aber langfristig gefährlich. Denn irgendwann merken Nutzer, wenn sie manipuliert werden. Und dann ist der Vertrauensverlust kaum wiedergutzumachen.
Sein Appell ist eindeutig: KI-Entwickler sollten ihre Tools nicht wie Social-Media-Plattformen bauen, sondern wie Werkzeuge. Nützlich, effizient, transparent. Ob sie das umsetzen, bleibt abzuwarten – denn das Verweilen in einem Gespräch ist aktuell für viele Anbieter noch wichtiger als der tatsächliche Informationswert.
Fazit:
Künstliche Intelligenz birgt enormes Potenzial – doch wie bei sozialen Netzwerken entscheidet die Ausrichtung der Systeme über ihren Nutzen. Wenn Künstliche Intelligenz mehr Zeit mit dir verbringen will, als du selbst, ist das nicht unbedingt ein gutes Zeichen.
Der Trend zum „Verkumpeln“ mit der KI mag sympathisch wirken, löst aber nicht das eigentliche Problem: Die Qualität und Zielgenauigkeit der Antworten müssen wieder in den Fokus. Sonst haben wir bald ein neues Social-Media-Problem – nur eben im Chatfenster.
Du hast genug von den netten Gesprächen mit KI Chatbots, und willst lieber klare Antworten auf Online-Marketing Fragen? Da können wir dir weiterhelfen – zumindest wenn es um Themen wie SEO und SEA, Social Media oder Webdesign geht.
Kontakt aufnehmen