Teoria staje się faktem

Tilburg / Fot: Krzysztof Kubicki

Nie żyjemy już w erze, w której sztuczna inteligencja jest tylko abstrakcyjną hipotezą przyszłości stała się praktycznym narzędziem przekształcania codzienności. Pandemia przetestowała instrumenty państwowego nadzoru, biznesy wystawiły na próbę skalowalność automatyzacji, a obie te linie spotkały się w jednym punkcie: algorytmiczna suwerenność zaczyna nadpisywać procedury demokratyczne. W tym rozdziale chcę przeanalizować, jak i dlaczego teoria (o potencjale algorytmów do kontroli i organizacji życia) zamieniła się w fakt i podać kilka rzeczy, które zwykle umykają debacie.

Eindhoven / Fot: Krzysztof Kubicki

Mechanizm pierwszy infrastruktura jako norma Pandemia pokazała, że nie wystarczy wprowadzić narzędzia trzeba je uczynić codziennością. QR-kody, aplikacje zdrowotne, geofencing czy masowy monitoring przestały być „tymczasowymi” eksperymentami; stały się fragmentem infrastruktury miejskiej. To działa jak sakrament: powtarzalny rytuał (zeskanuj, pokaż, przejdź) nadaje legitymację systemowi. Ludzie zaczęli traktować zielony QR jako pozwolenie do bycia obywatelem w przestrzeni publicznej. Ten rodzaj „ambient legitimacy” normalizacji przez infrastrukturę to krok, który teoria nadzoru często traktuje powierzchownie, a w praktyce jest on kluczowy: nie chodzi już tylko o technologie zdolne śledzić, ale o technologie, które czynią śledzenie niewidocznym i oczywistym.

Mechanizm drugi redystrybucja wartości: z pracy do epistemicznej kurateli. Zastanów się: jeśli maszyna wykonuje obliczenia, montuje raport i obsługuje proces co zostaje człowiekowi? Zostaje umiejętność rozumienia, kwestionowania i nadzorowania wyników systemu. W uproszczeniu: wartość przesuwa się od „czynności produkcyjnej” do „kto kontroluje wiedzę i interpretację”. To tworzy nowe klasy zawodowe nie tylko programistów, ale kustoszy zaufania: audytorów algorytmów, lokalnych archiwistów danych, fotografów-świadków, dziennikarzy dokumentujących każde złamanie reguł. To oni będą paradoksalnie prawdziwą siłą oporu. Rzadko jednak w dyskusji dostrzega się, że to nie masowa utrata pracy jest najważniejsza, lecz to, kto przejmie epistemiczną kuratelę czyli władzę nad tym, co uznajemy za „prawdę”.

Mechanizm trzeci erozja proceduralnej pamięci. Instytucje działają dzięki proceduralnej pamięci: zwyczajom, nieformalnym regułom, praktykom, które ludzie znają i potrafią odtworzyć. Kiedy AI przejmuje procesy, ta pamięć może się zatrzeć. Algorytm działa według kodu; jeśli kod nie uwzględnia pewnych niuansów, procedury ulegają automatycznemu „zapomnieniu”. To tworzy krytyczny punkt słabości: systemy przestaną być transparentne i wymienialne, a społeczna zdolność do naprawy błędu maleje. Nikt nie wie już, jak dawniej „było robione” bo nikt nie robi tego ręcznie. To nie jest abstrakcja: to recepta na długotrwałą bezradność wobec błędnych decyzji algorytmicznych. Rzecz, którą większość przegapiła prywatne archiwa jako nowy teren konfliktu. W debacie o AI wszyscy mówią o modelach, danych i skalowaniu. Mało kto skupia się na tym, kto trzyma archiwum fizyczne bazy, logi, zapisy obrazów, metadane. Kto kontroluje surowe zrzuty z kamer, surowe zdjęcia z demonstracji, logi QR-kodów? Ten właściciel archiwum decyduje, co można odtworzyć i kiedy. Dlatego w przyszłości walka o narrację i dowody może przenieść się z ulic do struktur przechowywania danych: firmy hostingowe, chmury, konsorcja dostawców usług będą nowymi strażnikami pamięci zbiorowej. Fotografia uliczna twoje kadry, twoje pliki RAW stają się politycznym zasobem. Kto ma dostęp do surowego pliku, może zadecydować, czy dana narracja zostanie ukryta, zmonetyzowana czy ujawniona. Nowa klasa bohaterów: kustosze zaufania i archiwariusze oporu.

Jeśli powyższe jest prawdziwe, to scenariusz „co robić?” przyjmuje konkretny kształt. Potrzebujemy: lokalnych archiwów niezależnych od wielkich chmur, z zasadami retencji i publicznej kontroli „kustoszy zaufania” ludzi przeszkolonych w audycie danych, weryfikacji źródeł, śledzeniu łańcucha dowodowego fotograficznych sieci redundancji systemów, w których pojedyncze zdjęcie jest natychmiast replicowane na kilku, rozproszonych nośnikach wspólnotowych procedur „epistemicznego backupu” czyli reguł, jak przechowywać, sygnować i udostępniać dowody, aby nie mogły zostać łatwo zniszczone lub zmanipulowane. Humanistyczny rdzeń opowieści, których nikt nie powinien zapomnieć. Z punktu widzenia polityki i technologii, liczby i mechanizmy są ważne. Ale sedno polega na osobach: matka, która trzyma w ramionach dziecko wykluczone przez system QR; fotoreporter, który zdaje sobie sprawę, że jego klatka z ochroniarzem i numerem to początek łańcucha, który może go zniszczyć; starsza kobieta, wybuchająca płaczem, bo straciła pracę, gdy automat podjął decyzję. Każda z tych osób reprezentuje „koszt” teorii, która stała się faktem. Humanizacja tych kosztów to nie retoryka – to polityczna konieczność: społeczeństwo, które ignoruje ludzi stojących za statystykami, nie będzie w stanie wypracować skutecznych mechanizmów odnowy. Kilka praktycznych rekomendacji (co dodać do badań i rozdziałów książki). Badania etnograficzne w miejscach, gdzie AI zastępuje pracę biurową (działy compliance, urzędy) jak zmienia się procedura decyzyjna i pamięć instytucji.

Mapowanie archiwów kto przechowuje logi QR, nagrania policyjne, zrzuty z kamer miejskich? Z kim można negocjować ich legalny dostęp?. Historie kustoszy zaufania wywiady z ludźmi, którzy dziś pełnią te role nieformalnie: reporterami, lokalnymi aktywistami, prawniczym wsparciem dla demonstrantów. Scenariusze redundancji dowodowej opracowanie protokołów szybkiego rozproszonego backupu dla materiałów dokumentujących naruszenia praw.Zakończenie nie ma technologii bez odpowiedzialności. Gdy teoria staje się faktem, odpowiedzialność przesuwa się z akademików i futurystów na nas wszystkich projektantów narzędzi, ustawodawców, fotografów dokumentujących ulice i obywateli decydujących, czy zgadzają się na „tymczasowe” rozwiązania. Jeśli chcemy, aby to, co powstaje, było ludzkie, musimy zacząć od prostego pytania: kto będzie pamiętał? Kto będzie trzymał dowód? I komu ufamy, kiedy system pomyli się po raz pierwszy? Odpowiedź na te pytania przesądzi, czy teoria nadzoru skończy jako narzędzie opresji, czy też zostanie przekształcona w przestrzeń, w której ludzie nadal mają prawo rościć pretensje do prawdy.

Krzysztof Kubicki

error: Nie kopiuj !!