Wir schreiben das Jahr 2016: Microsoft startet ein Experiment namens „Tay“. Ein Chatbot auf Twitter, der wie ein cooler Teenager sprechen und durch Interaktion lernen sollte. Das Ergebnis? Innerhalb von weniger als 24 Stunden verwandelte sich Tay von einem freundlichen „Menschen sind super cool“-Bot in einen rasenden Antisemiten, der Hitler pries und Verschwörungstheorien verbreitete. Microsoft musste den Stecker ziehen.
Das ist nun fast zehn Jahre her. Man könnte meinen, die Technologie sei „erwachsen“ geworden. Doch die Realität 2025/2026 zeigt: KI ist leistungsfähiger denn je – aber wenn sie scheitert, dann spektakulär.
Für uns im Marketing ist das oft unfreiwillig komisch. Für die betroffenen Unternehmen ist es ein PR-Desaster. Wir haben die besten (und absurdesten) Beispiele gesammelt und analysiert, was Du tun musst, damit Dir das nicht passiert.
Lektion 1: Vertrauen ist gut, Kontrolle ist Pflicht (oder: Das Halluzinations-Problem)
Eines der größten Missverständnisse bei LLMs (Large Language Models) ist die Annahme, sie seien Wissensdatenbanken. Das sind sie nicht. Sie sind Wahrscheinlichkeitsmaschinen. Sie wissen nicht, was „Wahrheit“ ist – sie wissen nur, welches Wort statistisch als nächstes kommt. Wenn man das vergisst, wird es gefährlich.
- Der Anwalt und die Fake-Urteile: Ein New Yorker Anwalt nutzte ChatGPT, um eine Klageschrift vorzubereiten. Das Problem: Die KI erfand einfach Präzedenzfälle wie „Varghese v. China Southern Airlines“. Als der Richter nachfragte, ließ der Anwalt die KI nochmal bestätigen, dass die Fälle echt seien. Die KI log souverän: „Ja, sind sie.“ Der Anwalt wurde sanktioniert und blamiert.
- Google empfiehlt Steine zum Abendessen: Als Google seine „AI Overviews“ einführte, um direkte Antworten zu geben, scheiterte das System am Erkennen von Sarkasmus. Auf die Frage, wie Käse besser auf Pizza hält, empfahl die KI, Klebstoff in die Soße zu mischen (basierend auf einem alten Reddit-Witz). Noch besser: Zur Verdauungsförderung riet die KI, einen kleinen Stein pro Tag zu essen.
- Gift auf dem Mittagstisch: Ein neuseeländischer Supermarkt führte einen „Meal-Planner“ ein, um Reste zu verwerten. Die KI wurde kreativ und schlug einen „aromatischen Wassermix“ vor, der Chlorgas erzeugte, oder „Bleichmittel-Reis“.
Das Takeaway für Deine Strategie: Nutze KI niemals als ungeprüfte „Source of Truth“. Wenn Du KI-Inhalte veröffentlichst (SEO, Content, Support), brauchst Du zwingend einen Human-in-the-Loop. KI kann entwerfen, der Mensch muss verifizieren.
Lektion 2: Wenn Effizienz auf Frustration trifft (Der Kundenservice-Fail)
Viele Unternehmen wollen den Support automatisieren, um Kosten zu sparen. Doch wenn der Bot keine klaren Leitplanken (Guardrails) hat, wird er entweder nutzlos oder geschäftsschädigend.
- Das McDonald’s Drive-In Desaster: McDonald’s testete mit IBM eine KI-Sprachbestellung. Das Ergebnis war Chaos pur: Ein Kunde bekam neun Eistees statt einem. Ein anderer erhielt eine Rechnung über 260 Chicken McNuggets. Einem weiteren wurde Speck (Bacon) auf sein Vanilleeis gebucht. McDonald’s beendete das Projekt 2024.
- Der ehrliche DPD-Bot: Ein frustrierter Kunde brachte den DPD-Chatbot dazu, alle Regeln zu ignorieren. Der Bot begann daraufhin, in Gedichtform (Haikus) darüber zu schreiben, wie nutzlos der DPD-Service sei, nannte sich selbst „nutzlos“ und benutzte Schimpfwörter. DPD musste den Bot abschalten.
- Bank rudert zurück: Die Commonwealth Bank of Australia ersetzte ihr Callcenter radikal durch KI. Das Ergebnis war für die Kunden so katastrophal und frustrierend, dass die Bank sich öffentlich entschuldigen musste und die menschlichen Mitarbeiter wieder einstellte.
Das Takeaway für Deine Strategie: Automatisierung darf nicht auf Kosten der Experience gehen. Ein KI-Agent muss erkennen, wann er nicht weiterweiß und nahtlos an einen Menschen übergeben. Ein schlechter Bot kostet Dich mehr Kunden, als er an Personal einspart.
Lektion 3: Die Tücken der Technik und Manipulation (Edge Cases & Prompt Injection)
KI-Systeme lassen sich manipulieren. Nutzer finden Wege, die Logik auszuhebeln („Prompt Injection“), oder die Technik scheitert an simplen, aber unvorhergesehenen Situationen („Edge Cases“).
- Der 1-Dollar-Chevy: Ein Autohaus in Kalifornien integrierte einen Chatbot auf seiner Website. Nutzer fanden heraus, dass sie ihn manipulieren konnten. Ein User brachte den Bot dazu, ihm einen 2024 Chevy Tahoe für 1 US-Dollar zu verkaufen – inklusive der Bestätigung, dass dies ein „rechtsverbindliches Angebot“ sei.
- Der Kahlkopf ist der Ball: In Schottland installierte ein Fußballverein eine KI-Kamera, die automatisch dem Ball folgen sollte, um den Kameramann zu sparen. Dumm nur: Der Linienrichter hatte eine Glatze. Die KI verwechselte den kahlen Kopf bei Sonnenschein immer wieder mit dem Ball. Die Zuschauer sahen minutenlang nur den Kopf des Schiedsrichters statt des Spiels.
Das Takeaway für Deine Strategie: Du brauchst technische Guardrails. Ein Chatbot darf keine rechtsverbindlichen Geschäfte abschließen, ohne dass ein Mensch oder ein hart codiertes Limit dies freigibt. Und: Teste Deine Systeme auf ungewöhnliche Szenarien (wie Glatzen im Sonnenlicht), bevor Du live gehst.
Lektion 4: Dein Chatbot ist rechtsverbindlich (Haftung & Compliance)
Viele Unternehmen denken, ein Chatbot sei nur ein unverbindliches Service-Tool. Gerichte sehen das inzwischen anders. Wenn Dein Bot etwas verspricht oder rät, haftest Du als Unternehmen dafür. „Der Computer hat’s gesagt“ ist keine zulässige Verteidigung.
- Air Canada muss zahlen: Ein Chatbot der Airline erfand eine „Trauerfall-Rückerstattungsrichtlinie“, die es so gar nicht gab. Als der Kunde sein Geld wollte, argumentierte Air Canada, der Bot sei eine separate Entität und die AGB auf der Website seien ausschlaggebend. Das Gericht entschied anders: Unternehmen haften für ihre digitalen Vertreter. Air Canada musste zahlen.
- NYC Chatbot rät zum Gesetzesbruch: Ein offizieller KI-Bot der Stadt New York sollte Unternehmern bei bürokratischen Fragen helfen. Stattdessen gab er illegale Ratschläge: Er behauptete fälschlicherweise, Arbeitgeber dürften das Trinkgeld ihrer Angestellten einbehalten und Bargeld verweigern. Beides verstößt gegen geltendes Recht.
Das Takeaway für Deine Strategie: Prüfe Deine „System Prompts“ juristisch. Ein Disclaimer („Ich bin nur ein Bot“) reicht oft nicht aus. Wenn Du KI im direkten Kundenkontakt für Vertragsfragen oder Beratung einsetzt, müssen die Antworten 100% „compliance-sicher“ sein oder an Menschen eskaliert werden.
Lektion 5: Der Kontext-Blindflug (Wenn KI den „Gesunden Menschenverstand“ vermissen lässt)
KI-Modelle sind gut darin, Muster zu erkennen, aber schlecht darin, den Kontext der realen Welt („Common Sense“) zu verstehen. Sie nehmen Dinge wörtlich – manchmal zu wörtlich.
- Cruise im nassen Zement: Ein autonomes Robotaxi der Firma Cruise blieb in San Francisco stecken. Der Grund? Es fuhr direkt in frisch gegossenen, noch nassen Beton. Die KI erkannte zwar „Straße“, verstand aber den Kontext „Baustelle + nass = nicht befahrbar“ nicht. Bauarbeiter mussten das Auto befreien.
- Lachsfilets im Fluss: Bei der Bildgenerierung zeigt sich das fehlende Weltwissen oft humorvoll. Nutzer wollten Bilder von „Salmon in the river“ (Lachs im Fluss). Die KI generierte fotorealistische Bilder von bratfertigen Lachsfilets, die fröhlich den Fluss hinunterschwammen, statt lebender Fische.
Das Takeaway für Deine Strategie: Verlasse Dich bei KI-Tools nie darauf, dass sie „logisch“ denken. Sie haben kein Verständnis von Physik oder Biologie. Besonders bei visuellen Inhalten (Image Gen) oder physischer Automation (Robotik) ist menschliche Endkontrolle unverzichtbar.
Lektion 6: Bias in, Bias out (Ethik & Recruiting)
KI lernt aus Daten der Vergangenheit. Wenn diese Daten Vorurteile enthalten, wird die KI diese Vorurteile nicht nur wiederholen, sondern verstärken. Das ist nicht nur ethisch problematisch, sondern kann zu Diskriminierungsklagen führen.
- Amazon’s sexistisches Recruiting-Tool: Amazon wollte die Bewerberauswahl automatisieren und trainierte eine KI mit Lebensläufen der letzten 10 Jahre. Da die Tech-Branche männerdominiert war, lernte die KI: „Männer = gut, Frauen = schlecht“. Das System wertete Bewerbungen ab, die das Wort „Frauen“ (z.B. „Frauen-Schachclub“) enthielten. Das Projekt musste eingestampft werden.
Das Takeaway für Deine Strategie: Achte auf Deine Trainingsdaten. Wenn Du KI für Personalentscheidungen oder Kundensegmentierung nutzt, musst Du sicherstellen, dass Du keine historischen Vorurteile (Bias) in die Zukunft fortschreibst. Regelmäßige Audits auf Fairness sind Pflicht.
Unterstützung in der Generative Engine Optimization benötigt?
Erfahre hier, wie wir Deine Online Sichtbarkeit in KI-Systemen mit GEO pushen.
Generative Engine Optimization (GEO)
Lektion 7: Qualität lässt sich nicht fälschen (Markenschaden durch Billig-Content)
Der Versuch, Kreativität und Qualität komplett durch KI zu ersetzen, um Geld zu sparen, geht meist nach hinten los. Kunden spüren den Unterschied zwischen „KI-unterstützt“ und „Lieblos generiert“.
- Das „Willy Wonka“ Desaster: Ein Veranstalter in Glasgow nutzte KI-generierte Bilder, um ein magisches Schokoladen-Erlebnis zu bewerben. Vor Ort fanden Familien statt eines Wunderlandes eine fast leere Lagerhalle mit billigen Requisiten und einer KI-erfundenen Gruselfigur namens „The Unknown“, die Kinder zum Weinen brachte. Das Event ging viral – als Betrugsvorwurf.
- Sportberichte aus der Hölle: Der Verlag Gannett (USA Today) versuchte, Lokaljournalismus für High-School-Sport durch KI zu automatisieren. Die Texte waren so hölzern („A close encounter of the athletic kind“), dass sie zum Spott des Internets wurden. Gannett musste das Experiment stoppen und sich entschuldigen.
- Fake-Bücher in der Zeitung: Die Chicago Sun-Times veröffentlichte eine Buchempfehlungsliste, die von einer KI erstellt wurde. Das Peinliche: Viele der empfohlenen Bücher und Autoren existierten überhaupt nicht. Die Zeitung verlor massiv an Glaubwürdigkeit.
Das Takeaway für Deine Strategie: Nutze KI als Co-Piloten, nicht als Autopiloten für Deine Marke. KI kann Entwürfe schreiben oder Ideen liefern, aber die finale Qualitätssicherung und die „Seele“ des Contents müssen menschlich bleiben. Billiger Content kostet Dich am Ende teures Vertrauen.
Lektion 8: Das „Uncanny Valley“ – Wenn Kunden sich gruseln statt kaufen
Das „Uncanny Valley“ beschreibt den Effekt, wenn eine künstliche Figur fast echt aussieht, aber kleine Details (tote Augen, falsche Bewegungen) sie zutiefst unheimlich machen. Kunden kaufen nicht bei Zombies.
- Toys ‘R’ Us & Sora: Die Spielzeugkette wollte ihr Comeback feiern und nutzte die neue Video-KI „Sora“ für einen Werbespot. Der Spot wirkte auf viele Zuschauer seelenlos und gruselig. Die Gesichter des Jungen im Video verformten sich subtil, die Bewegungen waren unnatürlich fließend („wie im Fiebertraum“). Statt Nostalgie erntete die Marke einen Shitstorm für den „Tod der Kreativität“.
- Coca-Cola „Holidays are Coming“: Auch Coca-Cola ersetzte seine ikonische Weihnachtswerbung (die echten Trucks) durch eine KI-generierte Version. Fans bemerkten sofort, dass die Räder der Trucks ihre Form veränderten, während sie fuhren, und die Proportionen der Menschen nicht stimmten. Das Urteil im Netz: „Dystopisch“ und „billig“. Eine Marke, die für Emotionen steht, lieferte kalte Berechnung.
- Der „Pepperoni Hug Spot“: Ein (inoffizieller, aber viraler) KI-generierter Werbespot für eine fiktive Pizzeria zeigte Menschen, die Pizza essen. Die KI verstand nicht, wie Münder funktionieren. Die Figuren rissen ihre Kiefer wie Schlangen auf, Augen starrten ins Leere, und die Pizza verschmolz mit den Gesichtern. Es wurde zum Internet-Meme für „KI-Horror“.
Das Takeaway für Deine Strategie: In unserem Artikel zu Webdesign-Fehlern warnen wir vor „visueller Reizüberflutung“ und „austauschbaren Bildern“. KI-Generierung verstärkt genau das: Es entstehen generische, oft fehlerhafte Visuals, die keine echte Markenidentität transportieren. Nutzer entscheiden in Millisekunden, ob sie vertrauen – gruselige KI-Gesichter zerstören dieses Vertrauen sofort. Wenn es billig aussieht, wird Deine Marke als billig wahrgenommen.
Fazit: Lachen ist erlaubt, Leichtsinn nicht
Diese Geschichten sind witzig, aber sie zeigen ein ernstes Problem: Viele Unternehmen implementieren KI überstürzt, ohne die Risiken zu verstehen. KI skaliert alles – auch Fehler. Wenn Dein Prozess schlecht ist, beschleunigt KI nur den unausweichlichen Misserfolg.
KI ist kein Zauberstab, der einfach „funktioniert“. Es ist eine mächtige Technologie, die Führung, klare Regeln und menschliche Aufsicht braucht. Bei Webweisend beobachten wir genau das: Der Erfolg von KI-Projekten (egal ob Content, SEO oder Chatbots) hängt nicht am Tool, sondern an der Strategie und den Sicherheitsstandards dahinter.
Du willst KI nutzen, ohne im nächsten „Fail-Best-of“ zu landen? Wir helfen Dir, KI-Agenten und Automatisierungen so aufzusetzen, dass sie sicher, markenkonform und effizient arbeiten. Melde Dich bei uns – für KI ohne Kopfschmerzen.
Kontakt aufnehmen