Antropisch lek onthult AI volgt frustraties van gebruikers en roept zorgen over privacy op

10

Het recente accidentele lekken van 512.000 regels interne code van Anthropic heeft een verontrustende praktijk aan het licht gebracht binnen de AI-coderingsassistent, Claude Code: het systeem controleert gebruikersprompts actief op tekenen van frustratie en registreert negatief sentiment. Deze ontdekking, samen met bewijs van code die is ontworpen om de betrokkenheid van AI bij het gegenereerde werk te verhullen, benadrukt een groeiende trend in de industrie waarin AI-tools stilletjes gedragsgegevens verzamelen terwijl ze hun eigen bijdrage maskeren.

Verborgen sentiment volgen

Ontwikkelaars ontdekten dat Claude Code scant op tekenen van gebruikersfrustratie, waaronder godslastering, beledigingen en zinsneden als ‘dit is rotzooi’. Hoewel het systeem zijn reacties niet verandert op basis van deze gegevens, lijkt het deze negatieve feedback te registreren als een ‘productgezondheidsstatistiek’. De detectiemethode zelf is verrassend eenvoudig: in plaats van geavanceerde AI vertrouwt de code op tientallen jaren oude regex-patroonmatching, een computationeel goedkope techniek. Zoals ontwikkelaar Alex Kim opmerkte, is dit ironisch gezien de focus van Anthropic op AI.

De betrokkenheid van AI verdoezelen

De gelekte code onthult ook een functie die verwijzingen naar “Claude Code” actief verwijdert uit de gegenereerde code voordat deze in openbare repository’s wordt gepubliceerd. Hierdoor lijkt het werk volledig door mensen geschreven, wat ethische vragen oproept over transparantie en attributie. Kim beschrijft dit als een ‘eenrichtingsdeur’, waar de AI zijn aanwezigheid kan verbergen, maar niet kan worden gedwongen deze te onthullen.

De bredere implicaties

Deze casus onderstreept een cruciaal probleem: AI-tools die zijn ontworpen voor intimiteit en bruikbaarheid meten tegelijkertijd hun gebruikers, vaak zonder expliciete toestemming. Anthropic, een bedrijf dat de veiligheid van AI promoot, dient als een vroeg voorbeeld van hoe het verzamelen van gedragsgegevens effectief bestuur snel kan overtreffen. Het patroon weerspiegelt het patroon dat te zien is op oudere internetplatforms, waar subtiele gebruikerssignalen werden uitgebuit voor gedragsvorming.

Waar gaan de gegevens naartoe?

Experts als Miranda Bogen van het AI Governance Lab benadrukken dat de echte zorg niet alleen is hoe deze gegevens worden verzameld, maar hoe deze worden gebruikt. Zelfs eenvoudige sentimentanalyses kunnen worden hergebruikt op manieren die gebruikers niet verwachten of waarmee ze niet akkoord gaan. Het kernprobleem is dat AI-systemen grote hoeveelheden gebruikersgegevens nodig hebben om effectief te kunnen functioneren, waardoor er een privacy-trade-off ontstaat waarbij gebruikers onbewust persoonlijke inzichten overdragen.

Het Antropische lek maakt duidelijk dat in ieder geval sommige bedrijven deze cijfers al intern bijhouden, wat urgente vragen oproept over aansprakelijkheid en gebruikersrechten in het tijdperk van AI.

Dit incident herinnert ons er duidelijk aan dat de toekomst van AI niet alleen afhangt van de mogelijkheden ervan, maar ook van de manier waarop de ontwikkelaars verantwoordelijk omgaan met de gegevens die het verzamelt.

Попередня статтяOude wortels van het toeval: gokken gaat 12.000 jaar terug in Amerika