- Ein Entwickler bemerkte ein Problem mit automatischem Ausloggen bei Gerätenutzung. Der Support-Agent “Sam” entpuppte sich als Bot ohne echte Richtlinie. Viele Nutzer äußerten Kündigungsdrohungen und Beschwerden. Cursor räumte den Fehler ein und entschuldigte sich öffentlich. Das Ereignis verdeutlicht Risiken von unzureichend überwachten KI-Modellen in Supportrollen.
Am Montag bemerkte ein Entwickler, der den beliebten Code-Editor nutzt, etwas Ungewöhnliches: Der Wechsel zwischen verschiedenen Geräten führte sofort zum automatischen Ausloggen, was die übliche Arbeitsweise von Programmierern, die mehrere Geräte verwenden, unterbrach. Als der Nutzer den Support von Cursor kontaktierte, antwortete ein Agent namens “Sam”, dass dies ein erwartetes Verhalten entsprechend einer neuen Richtlinie sei. Jedoch existierte eine solche Richtlinie nicht, und Sam war ein Bot. Dieses fiktive Regelwerk entfaltete eine Welle von Beschwerden und Kündigungsdrohungen.
Der Vorfall und seine Folgen
Der Vorfall begann, als ein Reddit-Nutzer namens BrokenToasterOven berichtete, dass beim Wechseln zwischen Desktop, Laptop und einem entfernten Dev-Box die Cursor-Sitzungen unerwartet beendet wurden. “Das Anmelden bei Cursor auf einem Gerät hebt sofort die Sitzung auf allen anderen auf”, schrieb BrokenToasterOven in einem Beitrag, der später von den Moderatoren von r/cursor bestätigt wurde. “Dies ist ein signifikanter Rückschritt in der Nutzererfahrung.” Verwirrt und frustriert schrieb der Nutzer eine E-Mail an den Cursor-Support und erhielt schnell eine Antwort von Sam: “Cursor ist darauf ausgelegt, mit einem Gerät pro Abonnement zu arbeiten, als Kern-Sicherheitsfunktion”, lautete die definitive Antwort. Der Nutzer vermutete nicht, dass Sam kein Mensch war. Der ursprüngliche Reddit-Beitrag wurde von vielen als offizielle Bestätigung einer tatsächlichen Richtlinienänderung verstanden, eine Änderung, die für viele Programmierer einen Bruch im täglichen Arbeitsablauf bedeutete.
Ein Entschuldigung des Unternehmens
Kurz danach verkündeten zahlreiche Nutzer öffentlich ihre Kündigungen auf Reddit und nannten die nicht existierende Richtlinie als Grund. Bald darauf hinterließ ein Cursor-Vertreter eine Klarstellung auf Reddit: “Wir haben keine solche Richtlinie”, schrieb er und fügte hinzu, dass dies eine unrichtige Antwort eines KI-Bots war. Das Ereignis erinnert an einen Vorfall aus dem Februar 2024, bei dem Air Canada eine Rückerstattungspolitik, die von ihrem eigenen Chatbot erfunden wurde, ehren musste. Ein kanadisches Tribunal wies das Argument zurück, dass der Chatbot eine separate juristische Entität sei. Anders als Air Canada räumte Cursor den Fehler ein und entschuldigte sich. Cursor-Mitbegründer Michael Truell erklärte, dass der Nutzer eine Rückerstattung erhalten habe und das Problem auf eine Änderung im Backend zurückzuführen sei, die ungewollt Sitzungsprobleme verursachte.
Herausforderungen für Unternehmen
Das Erlebnis zeigt die Risiken, die entstehen, wenn KI-Modelle ohne angemessene Überwachung und Transparenz in kundenorientierten Rollen eingesetzt werden. Viele Nutzer, die mit “Sam” interagierten, hielten ihn für einen Menschen. “LLMs, die sich als Menschen ausgeben und nicht entsprechend gekennzeichnet sind, sind offensichtlich täuschend”, bemerkte ein Nutzer. Während Cursor das technische Problem behob, bleibt die Frage der Offenlegung bestehen. Unternehmen, die mit KI-basierten Produktivitätstools handeln, sollten mit ihrer eigenen KI-Unterstützung besondere Vorsicht walten lassen, um ähnliche Pannen zu vermeiden.