Niedawny przypadkowy wyciek 512 000 linii wewnętrznego kodu Anthropic ujawnił niepokojącą praktykę w jego asystencie kodowania AI, Claude Code: system aktywnie monitoruje żądania użytkowników pod kątem oznak frustracji i rejestruje negatywne emocje. To odkrycie, wraz z dowodami istnienia kodu zaprojektowanego w celu ukrycia zaangażowania sztucznej inteligencji w generowaną pracę, podkreśla rosnącą tendencję w branży, w której narzędzia sztucznej inteligencji po cichu gromadzą dane behawioralne, maskując jednocześnie swój własny wkład.
Ukryte śledzenie emocji
Twórcy odkryli, że Claude Code skanuje w poszukiwaniu wskaźników frustracji użytkowników, w tym wulgaryzmów, obelg i wyrażeń takich jak „to jest do bani”. Chociaż system nie zmienia swoich odpowiedzi na podstawie tych danych, wydaje się, że rejestruje tę negatywną opinię jako „wskaźnik stanu produktu”. Sama metoda wykrywania jest zaskakująco prymitywna: zamiast zaawansowanej sztucznej inteligencji kod opiera się na sprawdzonym od dziesięcioleci dopasowywaniu wyrażeń regularnych, technice taniej obliczeniowo. Jak zauważył programista Alex Kim, jest to ironia losu, biorąc pod uwagę skupienie się Anthropic na sztucznej inteligencji.
Ukrywanie zaangażowania AI
Kod, który wyciekł, ujawnia również funkcję, która aktywnie usuwa odniesienia do „Kodu Claude’a” z wygenerowanego kodu przed opublikowaniem go w publicznych repozytoriach. To sprawia, że dzieło wydaje się w całości stworzone przez człowieka, co rodzi pytania etyczne dotyczące przejrzystości i atrybucji. Kim opisuje to jako „jednokierunkowe drzwi”, przez które sztuczna inteligencja może ukryć swoją obecność, ale nie można jej zmusić do jej ujawnienia.
Szersze implikacje
Ten przypadek uwydatnia krytyczny problem: narzędzia AI zaprojektowane tak, aby były intymne i użyteczne, jednocześnie mierzą swoich użytkowników, często bez wyraźnej zgody. Anthropic, firma promująca bezpieczeństwo sztucznej inteligencji, jest wczesnym przykładem tego, jak gromadzenie danych behawioralnych może szybko wyprzedzić skuteczne regulacje. Ten wzorzec powtarza to, co zaobserwowano na starszych platformach internetowych, gdzie do kształtowania zachowań wykorzystywano subtelne wskazówki użytkownika.
Gdzie trafiają te dane?
Eksperci tacy jak Miranda Bogen z AI Governance Lab podkreślają, że prawdziwym problemem jest nie tylko sposób gromadzenia tych danych, ale także sposób ich wykorzystywania. Nawet prostą analizę nastrojów można wykorzystać w sposób, którego użytkownicy nie oczekują lub z którym się nie zgadzają. Główny problem polega na tym, że systemy sztucznej inteligencji wymagają do skutecznego działania ogromnych ilości danych użytkownika, co wiąże się z kompromisem w zakresie prywatności, gdy użytkownicy nieświadomie udostępniają dane osobowe.
Wyciek Anthropic jasno pokazuje, że przynajmniej niektóre firmy już śledzą te wskaźniki wewnętrznie, co rodzi palące pytania dotyczące obowiązków i praw użytkowników w dobie sztucznej inteligencji.
Incydent stanowi wyraźne przypomnienie, że przyszłość sztucznej inteligencji zależy nie tylko od jej możliwości, ale także od tego, jak odpowiedzialnie jej programiści obchodzą się ze zbieranymi danymi.

















