Das kürzliche versehentliche Durchsickern von 512.000 Zeilen des internen Codes von Anthropic hat eine besorgniserregende Praxis innerhalb seines KI-Codierungsassistenten Claude Code aufgedeckt: Das System überwacht aktiv Benutzeraufforderungen auf Anzeichen von Frustration und protokolliert negative Stimmung. Diese Entdeckung, zusammen mit Beweisen für Code, der die Beteiligung der KI an der generierten Arbeit verschleiern soll, verdeutlicht einen wachsenden Trend in der Branche, bei dem KI-Tools stillschweigend Verhaltensdaten sammeln und gleichzeitig ihren eigenen Beitrag maskieren.
Versteckte Stimmungsverfolgung
Die Entwickler haben herausgefunden, dass Claude Code nach Anzeichen für Benutzerfrustration sucht, darunter Obszönitäten, Beleidigungen und Phrasen wie „Das ist scheiße“. Obwohl das System seine Antworten nicht auf der Grundlage dieser Daten ändert, scheint es dieses negative Feedback als „Kennzahl für die Produktgesundheit“ zu protokollieren. Die Erkennungsmethode selbst ist überraschend einfach: Statt fortschrittlicher KI basiert der Code auf jahrzehntealtem Regex-Mustervergleich, einer rechnerisch kostengünstigen Technik. Wie Entwickler Alex Kim betonte, ist dies angesichts des Fokus von Anthropic auf KI ironisch.
Verschleierung der KI-Beteiligung
Der durchgesickerte Code enthüllt auch eine Funktion, die aktiv Verweise auf „Claude Code“ aus generiertem Code entfernt, bevor dieser in öffentlichen Repositories veröffentlicht wird. Dadurch erscheint das Werk vollständig von Menschenhand verfasst, was ethische Fragen zu Transparenz und Zuschreibung aufwirft. Kim beschreibt dies als eine „Einbahntür“, bei der die KI ihre Präsenz verbergen, aber nicht gezwungen werden kann, sie preiszugeben.
Die umfassenderen Implikationen
Dieser Fall unterstreicht ein kritisches Problem: KI-Tools, die auf Intimität und Nützlichkeit ausgelegt sind, messen gleichzeitig ihre Benutzer, oft ohne ausdrückliche Zustimmung. Anthropic, ein Unternehmen, das die KI-Sicherheit fördert, ist ein frühes Beispiel dafür, wie die Erfassung von Verhaltensdaten eine effektive Governance schnell übertreffen kann. Das Muster spiegelt das Muster auf älteren Internetplattformen wider, bei denen subtile Benutzerhinweise zur Verhaltensgestaltung genutzt wurden.
Wohin gehen die Daten?
Experten wie Miranda Bogen vom AI Governance Lab betonen, dass die eigentliche Sorge nicht nur darin besteht, wie diese Daten gesammelt werden, sondern wie sie verwendet werden. Sogar eine einfache Sentimentanalyse kann auf eine Weise umfunktioniert werden, die Benutzer nicht erwarten oder denen sie nicht zustimmen. Das Kernproblem besteht darin, dass KI-Systeme große Mengen an Benutzerdaten benötigen, um effektiv zu funktionieren, was zu einem Kompromiss beim Datenschutz führt, bei dem Benutzer unwissentlich persönliche Erkenntnisse weitergeben.
Das Anthropic-Leak macht deutlich, dass zumindest einige Unternehmen diese Kennzahlen bereits intern verfolgen, was dringende Fragen zu Verantwortlichkeit und Benutzerrechten im Zeitalter der KI aufwirft.
Dieser Vorfall ist eine deutliche Erinnerung daran, dass die Zukunft der KI nicht nur von ihren Fähigkeiten abhängt, sondern auch davon, wie verantwortungsvoll ihre Entwickler mit den gesammelten Daten umgehen.
