Obszary niewiedzy. Lewicowa krytyka literacka

logo

Tiziana Terranova - Czerwony stos atakuje! Algorytmy, kapitał i automatyzacja tego, co wspólne

Niniejszy esej jest efektem badań grupy włoskich instytucji samokształceniowych [autoformazione] o inspiracjach postautonomistycznych („wolnych uniwersytetów” zaangażowanych w oddolną organizację publicznych seminariów, konferencji, warsztatów itp.) oraz sieci anglojęzycznych badaczy i pracowników naukowych zajmujących się teorią i praktyką mediów cyfrowych, związanych z uniwersytetami, pismami naukowymi i ośrodkami badawczymi. W badaniach brali także udział artyści, aktywiści, prekarni pracownicy wiedzy itp. Tekst jest pokłosiem warsztatów, które odbyły się w Londynie w styczniu 2014 roku, zorganizowanych przez Digital Culture Unit w Centre for Cultural Studies (Goldsmiths College). Warsztaty te były wynikiem procesu namysłu i organizacji rozpoczętego na początku 2013 roku w ramach działającego na zasadzie wolnego uniwersytetu włoskiego kolektywu Uninomade 2.0 i kontynuowanego na forach, listach mailingowych oraz stronach internetowych takich jak Euronomade (http://www.euronomade.info/), Effemera, Commonware (http://www.commonware.org/), Quaderni di San Precario (http://quaderni.sanprecario.info/) i innych. Tekst ten w zamierzeniu nie miał być tradycyjnym esejem, ale raczej syntetycznym, a także – miejmy nadzieję – odkrywczym dokumentem, zanurzonym w sieci badań społecznych, artykułującym szereg problemów, tez i spraw wyłaniających się na przecięciu teorii politycznej oraz badań w obszarze nauki, technologii i kapitalizmu.

Jego stawką jest uchwycenie relacji pomiędzy „algorytmami” a „kapitałem” czy – mówiąc dokładniej – rosnącego znaczenia algorytmów (co zapowiadało już zaproszenie na wspomniane warsztaty) dla „praktyk organizacyjnych wyrosłych z centralnej pozycji technologii informacyjnych i komunikacyjnych, rozciągających się od produkcji po cyrkulację, od logistyki przemysłowej po spekulację finansową, od planowania i projektowania miejskiego po komunikację społeczną” (http://quaderni.sanprecario.info/2014/01/workshop-algorithms/). Te matematyczne, na pierwszy rzut oka ezoteryczne struktury stały się nieodłączną częścią codziennego życia użytkowników współczesnych mediów cyfrowych i sieciowych. Większość z nich, korzystając z podstawowego internetowego interfejsu, podporządkowana jest władzy albo takich algorytmów, jak Google Pagerank (klasyfikującego wyniki naszych wyszukiwań), albo Facebook Edgerank (automatycznie decydującego o kolejności podawanych nam wiadomości), nie mówiąc o wielu innych, mniej znanych algorytmach (Appinions, Klout, Hummingbird, PKC, Perlin noise, Cinematch, KDP Select itd.), które kształtują nasze relacje z danymi, urządzeniami cyfrowymi oraz innymi ludźmi. Wszechobecność algorytmów w obszarze kultury cyfrowej jest tylko jednym z wyrazów powszechności technik obliczeniowych, coraz bardziej pokrywających się z procesami produkcji, dystrybucji i konsumpcji, co widać w takich obszarach, jak logistyka, finanse, architektura, medycyna, planowanie miejskie, reklama, diagramy informacyjne, serwisy randkowe, gry, publikacje i wszelkie rodzaje aktywności twórczej (muzyka, taniec, grafika i wiele innych).

Przedstawienie zetknięcia „kapitału” i „algorytmu” jako problemu politycznego otwiera możliwość zerwania z czarem „kapitalistycznego realizmu”, czyli ideą, że kapitalizm jest jedyną możliwą ekonomią, a wszystkie nowe sposoby organizacji i dystrybucji dóbr muszą korzystać z rozwoju naukowego i technologicznego (Fischer 2009, Negri 2014). Pojęcie dobra wspólnego, wykraczając poza opozycje państwo–rynek, publiczne–prywatne, zostaje tu wykorzystane przede wszystkim jako inspiracja dla myślenia i praktyk dotyczących postkapitalistycznej formy istnienia sieciowych mediów cyfrowych.

Algorytmy, kapitał i automatyzacja

Ujęcie algorytmów w perspektywie kształtowania się nowej formy politycznej racjonalności zogniskowanej na pojęciu dobra wspólnego wiąże się ściśle z pytaniem o sposób, w jaki algorytmy powiązane są ze zmieniającą się naturą automatyzacji. Marks opisuje tę ostatnią jako proces wchłaniania przez maszyny „powszechnych sił wytwórczych mózgu społecznego”, takich jak „wiedza i umiejętności” (ibid., 567), co sprawia, że zaczynają one jawić się jako atrybut samego kapitału, a nie produkt pracy społecznej. Przyglądając się historii związków technologii i kapitału, widzimy jasno, jak proces automatyzacji wyewoluował od termo-mechanicznego modelu wczesnoprzemysłowej linii produkcyjnej do elektroniczno-przeliczeniowego modelu rozproszonych sieci, charakterystycznego dla współczesnego kapitalizmu. Algorytmy dają się zatem wpisać w tę samą linię genealogiczną, która – jak ujmuje to Marks we Fragmencie o maszynach – zaczynając od kapitalistycznego przysposobienia technologii w postaci kapitału trwałego, prowadzi ją przez szereg metamorfoz, „z których ostatnią jest maszyna, czy raczej automatyczny system maszyn, napędzany przez automat, który sam wytwarza własny ruch” (ibid., 565). Automat przemysłowy dał początek systemowi składającemu się „z licznych organów, mechanicznych i intelektualnych, tak że sami robotnicy stanowią tu tylko świadome członki” (ibid., 566). Natomiast automat cyfrowy, elektroniczno-przeliczeniowy, opierając się na „możliwościach wirtualności, symulacji, abstrakcji, informacji zwrotnych i procesów autonomicznych”, zatrudnia przede wszystkim mózg i system nerwowy oraz zaprzęga „do pracy samą duszę” (Fuller 2008, 4; Berardi 2009). Automat cyfrowy rozwija się w ramach sieci, składających się z połączeń elektronicznych i nerwowych; w ten sposób sami użytkownicy obsadzeni zostają w roli quasi-automatycznych przekaźników nieustannego przepływu informacji. Dopiero umieszczając algorytmy w kontekście tego szerszego złożenia [assemblage], możemy zacząć dyskusję na temat nowych form automatyzacji.

Andrew Goffey, cytując jeden z podręczników do informatyki, nazywa algorytmy „uogólniającym pojęciem dla wszystkich działań podejmowanych przez informatyków […] i jednocześnie podstawową jednostką, którą oni operują” (Goffey 2008, 15). Algorytm można także zdefiniować wstępnie jako „opis metody rozwiązania pewnego zadania” składający się z sekwencji kroków lub instrukcji, albo ze zbiorów lub zaprogramowanych kroków bazujących na danych i strukturach obliczeniowych. Algorytm jako taki jest pewną abstrakcją „o autonomicznym istnieniu niezależnym od tego, co informatycy nazywają szczegółami wdrożenia, czyli jego ucieleśnienia w konkretnym języku programowania dla architektury konkretnego urządzenia (Goffey 2008, 15). Złożoność takich abstrakcji rozciąga się od najprostszego zbioru reguł opisanych za pomocą języków naturalnych (używanych, przykładowo, by stworzyć skoordynowane wzorce poruszania się w ramach inteligentnego tłumu [smart mobs]) po najbardziej skomplikowane formuły matematyczne, włączające wszelkie rodzaje zmienne (jak słynny algorytm Monte Carlo, stosowany do rozwiązywania problemów fizyki jądrowej, wykorzystany następnie na giełdzie, a ostatnio do badań nad nielinearnymi procesami rozprzestrzeniania się technologii). Jednocześnie jednak, aby działać, algorytmy muszą funkcjonować jako części złożeń obejmujących sprzęt, dane, struktury danych (jak listy, bazy danych, pamięć itp.) oraz zachowania i czynności ciał. Algorytm, by stać się społecznie operatywnym oprogramowaniem, musi „zdobyć władzę jako społeczny lub kulturowy artefakt i proces dzięki coraz lepszemu przystosowaniu do ciał i zachowań istniejących poza nim” (Fuller 2008, 5).

Należy dodać, że wobec powiększania się zbiorów danych, które algorytmy przetwarzać muszą i, ogólnie rzecz biorąc, rosnącej entropii w przepływie informacji (określanej także jako Big Data), same algorytmy stają się czymś więcej niż tylko zwykłymi zbiorami instrukcji, które należy wykonać. Wedle Luciany Parisi „nieskończone ilości informacji interferują i reprogramują procedury algorytmiczne, [...] a dane wytwarzają obce reguły” (Parisi 2013, X). W związku z powyższym wydaje się oczywiste, że algorytmy nie są wcale jednorodnym zbiorem technik i nie gwarantują „niezawodnego wykonania zautomatyzowanych zadań i komend” (ibid., IX).

Z punktu widzenia kapitalizmu algorytmy stanowią jednak przede wszystkim formę „kapitału trwałego”, czyli są po prostu środkami produkcji. Kodują pewną ilość społecznej wiedzy (abstrahowanej z zasobów wypracowywanych przez matematyków, programistów i z działań zwykłych użytkowników), ale nie stanowią żadnej wartości per se. Dla obecnej gospodarki mają one znaczenie jedynie o tyle, o ile pozwalają na przemianę wiedzy w wartość wymienną (monetyzacja) i jej wzrastającą geometrycznie akumulację (urastające do tytanicznych rozmiarów quasi-monopole portali społecznościowych). Algorytmy takie jak Google Pagerank i Facebook Edgerank w tej mierze, w jakiej ustanawiają kapitał trwały, jawią się jako „założenie, wobec którego siła wartościotwórcza pojedynczego robotnika niknie jako nieskończenie mała” (Marks 1986, 567). Z tego względu roszczenia o wynagrodzenie za „darmową pracę” poszczególnych użytkowników okazują się chybione. Jasne jest, że dla Marksa to, co powinno zostać wynagrodzone, to nie indywidualna praca użytkowników, ale znacznie ją przerastające siły kooperacji społecznej, które zostały uruchomione w omawianym procesie. Możliwość ich wynagrodzenia zakłada głęboką transformację władzy, jaką sprawuje nad nami stosunek społeczny zwany gospodarką kapitalistyczną.

Z punktu widzenia kapitału algorytmy należą więc do kapitału trwałego, to znaczy są środkami produkcji nastawionymi na uzyskanie zwrotu finansowego. Podobnie jednak jak w wypadku wszystkich technik i technologii, nie wyczerpuje to wcale ich znaczenia. Marks stwierdza wprost, że technologia, będąc z punktu widzenia kapitału najefektywniejszą formą subsumcji pracy, jest jednocześnie czymś więcej. Istnienie technologii zrealizowanej w formie maszyn – podkreśla autor Grundrisse – „nie jest równoznaczne z ich istnieniem w formie kapitału”. I dlatego nie jest tak, że „subsumcja pod kapitalistyczną relację społeczną jest najodpowiedniejszą i ostateczną relacją społeczną produkcji (w warunkach istnienia maszyn)” (ibid., 568). Musimy zatem pamiętać, że instrumentalna wartość algorytmów dla kapitału nie wyczerpuje „wartości” samych algorytmów czy ogólnie rozumianej technologii, ponieważ mogą one wyrażać nie tylko „wartość użytkową” – jak ujął to Marks – ale i szereg innych wartości: estetycznych, etycznych, egzystencjalnych i społecznych. Prawdopodobnie to właśnie owa skłonność kapitału do redukowania rozwoju oprogramowania do jego wartości wymiennej i marginalizowania etycznych oraz estetycznych aspektów produkcji informatycznej okazała się impulsem dla Richarda Stallmana oraz niezliczonych hakerów i inżynierów, którzy zapoczątkowali ruch Free and Open Source. Może to właśnie energia uwolniona od przymusu zatrudnienia w firmach i otwierająca się na możliwość pracy w zgodzie z własną etyką i estetyką kodowania okazała się źródłem entuzjazmu napędzającego aktywność i tworzącego przestrzenie współpracy hakerów?

Należy podkreślić – wbrew pewnym nurtom marksizmu, mającym skłonność do utożsamiania technologii wyłącznie z „martwą pracą”, „kapitałem trwałym” czy „racjonalnością instrumentalną”, a zatem z kontrolą i panowaniem – że dla Marksa stopień rozwoju maszyn jest także wskaźnikiem ogólnego rozwoju sił wytwórczych, uwalnianych, ale niepoddających się całkowitemu wchłonięciu przez gospodarkę kapitalistyczną. To, co interesowało Marksa (i co sprawia, że jego prace zachowują wartość dla osób podejmujących wysiłek zorientowany na odkrywanie nowych, postkapitalistycznych form istnienia) to fakt, że tendencja kapitału do inwestowania w technologię w celu jej automatyzacji i idącej za tym maksymalnej redukcji kosztów pracy, potencjalnie uwalnia „nadwyżkę” [surplus] czasu i energii (siły roboczej) lub zwiększa zdolność produkcyjną w obszarze tak istotnej, podstawowej i koniecznej pracy reprodukcji (przykładowo gospodarka globalna powinna być nakierowana przede wszystkim na wytworzenie dobrobytu wystarczającego, by godziwie ubrać, nakarmić, zapewnić schronienie i opiekę zdrowotną dla całej populacji planety). A jednak zasadniczą cechą ekonomii kapitalistycznej jest to, że powstałe w ten sposób dodatkowy czas i dodatkowa energia nie zostają po prostu „uwolnione”, ale muszą być na powrót wchłaniane w cykl produkcji i wymiany, prowadząc niezmiennie do powiększania dobrobytu akumulowanego przez niewielu (kapitalista zbiorowy) kosztem wszystkich innych (czyli wielości).

Z punktu widzenia kapitału proces automatyzacji musi być więc zawsze równoważony przez nowe formy kontroli, musi wchłaniać i wyczerpywać wyzwalane przez siebie czas i energię. Musi wytwarzać ubóstwo i stres, choć powinien kreować dobrobyt i wypoczynek. Musi czynić miarą wartości bezpośrednią pracę, chociaż ewidentne jest, że to nauka, technologia i kooperacja społeczna odpowiadają za wytwarzanie dobrobytu. Wszystko to prowadzi do powtarzającej się destrukcji dobrobytu – w formie fizycznego niszczenia dóbr, wycieńczenia psychicznego czy katastrof ekologicznych. Wywołuje masowy głód zamiast go zaspokoić, a banki żywności stawia w sąsiedztwie epatujących zbytkiem rezydencji najbogatszych. To właśnie z tych powodów pojęcie postkapitalistycznej formy życia musi stać się wiarygodne, stanowiąc – mówiąc słowami Maurizia Lazzarato – „stałe i autonomiczne ognisko upodmiotowienia”. Celem postkapitalistycznej polityki dobra wspólnego [commonism] nie jest więc wyłącznie nowa dystrybucja dóbr, lepsza od swojej niezrównoważonej obecnej formy, ale również odzyskiwanie „czasu rozporządzalnego”, czyli czasu i energii wolnych od pracy, czasu umożliwiającego rozwijanie i dalsze komplikowanie samego pojęcia tego, co „konieczne”.

Historia kapitalizmu pokazuje, że automatyzacja nie spowodowała spadku ilości i intensywności pracy postulowanej przez menedżerów i kapitalistów. Przeciwnie, w stopniu, w jakim technologia to dla kapitału tylko środek produkcji, zdolny do wdrożenia innych środków, nie ma ona innowacyjnych skutków. Na przykład nie wydaje się, by w zautomatyzowanych technologiach przemysłowych w fabrykach zaszły ostatnimi czasy przełomowe zmiany. Dziś nadal większość pracy przemysłowej jest wykonywana ręcznie, a jej zautomatyzowanie polega na uzależnieniu od prędkości elektronicznych sieci projektowania, promocji i dystrybucji. To zaś jest ekonomicznie do utrzymania tylko dzięki środkom politycznym, czyli wykorzystywaniu na skalę globalną różnic geopolitycznych i ekonomicznych (arbitraż) oraz poprzez kontrolę przepływów migracyjnych dzięki nowym technologiom wykorzystywanym na granicach. Normą w większości gałęzi przemysłu jest dziś wzmożony wyzysk, który prowadzi do zubożenia sposobu masowej produkcji i konsumpcji, co w równym stopniu szkodzi ciału, podmiotowości, stosunkom społecznym oraz środowisku. Marks uznał, że czas rozporządzalny powstały dzięki automatyzacji powinien umożliwić przemianę samej istoty tego, co „ludzkie” – tak, żeby nowa podmiotowość mogła powrócić do wykonywania niezbędnej pracy w taki sposób, który przekształca rozumienie tego, co niezbędne oraz tego, co potrzebne. Nie chodzi zatem o proste opowiadanie się za powrotem do mniej skomplikowanych czasów. Zamiast tego trzeba przyjąć do wiadomości, że zaspokojenie zwiększających się wraz z przyrostem populacji potrzeb żywieniowych, zapewnienie mieszkań, nauczania i finansowania badań, a także opieki nad dziećmi oraz ludźmi chorymi i starszymi, wymaga mobilizacji społecznej wynalazczości i współpracy. Cały proces produkcji, gdzie większość pracuje na rzecz niewielu, biorąc na swe barki biedę i stres, przekształcany jest tym samym w taki proces, w którym to większość będzie definiowała, co jest konieczne i wartościowe – w trakcie wymyślania dróg dojścia do tego celu. Koresponduje to w pewien sposób z pojęciem dobrobytu opartym na tym, co wspólne [commonfare], które ostatnio opracowali Andrea Fumagalli i Carlo Vercellone, implikującym – zgodnie ze słowami tego ostatniego – „uspołecznienie inwestycji i pieniędzy oraz kwestię sposobów zarządzania i organizacji, które pozwalają na prawdziwie demokratyczne przejęcie instytucji dobrobytu [...] oraz restrukturyzację naszych systemów produkcji pod kątem ekologii” (Vercellone, w przygotowaniu; Fumagalli 2014). Powinniśmy w takim razie pytać nie tylko o to, jak dziś funkcjonuje algorytmiczna automatyzacja (głównie w kategoriach kontroli i monetyzacji, którymi zasilana jest ekonomia długu), ale także o to, jakiego rodzaju czas i energia są przez nią subsumowane oraz jak można by je przejąć na użytek odmiennych złożeń społecznych i politycznych – autonomicznych, niesubsumowanych i niepoddanych kapitalistycznemu pędowi do akumulacji i wyzysku.

Czerwony stos: wirtualny pieniądz, społeczne sieci, biohipermedia

W swojej niedawnej publikacji Benjamin H. Bratton, teoretyk mediów cyfrowych oraz polityki, stwierdza, że jesteśmy świadkami wyłaniania się nowego „nomosu ziemi”, gdzie stare podziały geopolityczne związane z terytorialną władzą suwerenną przecinają się z nowym „nomosem” Internetu oraz nowymi formami suwerenności poszerzającymi się w przestrzeni elektronicznej (Bratton 2012). Ten nowo powstający, heterogeniczny nomos uwzględnia zachodzenie na siebie władz państwowych (Chin, Stanów Zjednoczonych, Unii Europejskiej, Brazylii, Egiptu itd.), podmiotów transnarodowych (Międzynarodowego Funduszu Walutowego, Światowej Organizacji Handlu, banków unijnych oraz organizacji pozarządowych różnego typu) oraz korporacji, takich jak Google, Facebook, Apple, Amazon itp. Wytwarza on zróżnicowane wzorce wzajemnego dopasowania się, naznaczone przez momenty konfliktowe. Nawiązując do organizacyjnej struktury sieci komputerowych lub do „modelu sieci typu OSI, na którym pośrednio opierają się model TCP/IP ((Model warstwowej struktury protokołów będący podstawą obecnego Internetu – przyp. tłum.)) oraz światowy Internet”, Bratton stworzył pojęcie i/lub prototyp „stosu” [stack], „aby zdefiniować główną cechę nowego możliwego nomosu ziemi łączącego technologię, naturę oraz człowieka” (Bratton 2012). Stos wspiera i kształtuje pewien rodzaj „cybernetyki społecznej” zdolnej do tworzenia „równowagi i emergencji”. Jako „megastruktura” zakłada

zbieganie się interoperacyjnego, bazującego na standardach, materialno-informacyjnego systemu systemów, zorganizowanego według wertykalnie położonych odcinków, topograficznego modelu warstw i protokołów [...], złożonych w równym stopniu ze społecznych, ludzkich i „analogowych” warstw (źródeł energii, gestów, afektów, użytkowników-aktantów, interfejsów, miast i ulic, pomieszczeń i budynków, organicznych i nieorganicznych obwiedni [envelopes]), a także z warstw nie-ludzkich, informacyjnych, obliczeniowych oraz „cyfrowych” (kabli światłowodowych, centrów gromadzących dane, baz danych, standardów i protokołów, sieci miejskich, systemów wbudowanych) (Bratton 2012).

W tej części tekstu chciałabym zaproponować, w oparciu o prototyp Brattona, pojęcie „czerwonego stosu” [red stack], które jest nowym nomosem postkapitalistycznego dobra wspólnego. Urzeczywistnianie „czerwonego stosu” wymaga zaangażowania na (przynajmniej) trzech poziomach społeczno-technicznych innowacji: wirtualnego pieniądza, sieci społecznych oraz biohipermediów. Mimo że te trzy poziomy są „złożone” [„stacked”], czyli uwarstwione, powinny być rozumiane jako oddziałujące transwersalnie i nielinearnie. Konstytuują one możliwy sposób myślenia na temat infrastruktury autonomizacji, w której zbiegają się technologia oraz upodmiotowienie.

Wirtualny pieniądz

Współczesna ekonomia, jak dowodzi między innymi Christian Marazzi, bazuje na formie pieniądza jako serii znaków, pozbawionej jakiegokolwiek trwałego zakotwiczenia (np. w złocie), ewidentnie zależnej od obliczeniowej automatyzacji charakteryzującej modele symulacyjne, urządzenia ekranowe z ich zautomatyzowanym wyświetlaniem danych (katalogów, grafiki itd.) oraz handel oparty na algorytmach (transakcje bot-to-bot) jako wyłaniającej się formy jego automatyzacji (Marazzi). Albo, jak mówi Toni Negri: „pieniądz – jako abstrakcyjna maszyna – przejął dziś wyjątkową funkcję najwyższej miary wartości wydobytych ze społeczeństwa znajdującego się w fazie realnej subsumcji pod kapitał” (Negri 2014). Skoro własność i kontrola oraz kapitał pieniężny [capital-money] (różniący się, jak przypomina Maurizio Lazzarato, od pieniędzy pochodzących z płacy tym, że nie jest wyłącznie środkiem wymiany, ale środkiem inwestycyjnym przedkładającym pewne możliwości kosztem innych) są kluczowe dla utrzymania populacji w podległości wobec obecnych stosunków władzy, jak w takim razie możemy zamienić kapitał finansowy w pieniądz oparty na tym, co wspólne [the money of the common]? Eksperyment w rodzaju Bitcoin ((Bitcoin to kryptowaluta funkcjonująca od 2009 roku. „Wydobycie” to termin oznaczający generowanie „monet” w tym systemie rozliczeniowym – przyp. tłum.)) pokazuje, że w pewnej mierze „tabu pieniądza zostało przełamane” (Jaromil Roio 2014) i że tworzą się już alternatywne ścieżki jego rozwoju. Jaki rodzaj relacji można ustanowić między algorytmami kreującymi pieniądz a „praktyką konstytuującą, która afirmuje inne kryteria mierzenia bogactwa, dowartościowując nowe i stare kolektywne potrzeby wykraczające poza logikę finansów”? (Lucarelli 2014). Aktualne próby wytworzenia nowych rodzajów kryptowalut muszą być sądzone, oceniane i przemyślane od nowa w oparciu o proste pytanie postawione przez Andreę Fumagallego: czy waluta, oprócz bycia środkiem wymiany, może wpływać na cały cykl tworzenia pieniądza – od finansów po wymianę (Fumagalli 2014)? Czy raczej pozwala ona na spekulację i kompulsywne gromadzenie, czy może zamiast tego promuje inwestycje w projekty postkapitalistyczne, zaprowadzając wolność od wyzysku, autonomię organizacji itd.? Coraz bardziej jasne staje się, że algorytmy stanowią znaczącą część procesu tworzenia pieniądza opartego na tym, co wspólne, i że mają również swoją politykę (czym są na przykład genderowe polityki indywidualnego „wydobycia” [„mining”] albo polityka kompleksowej wiedzy technicznej i całej maszynerii zawartej w systemie kryptowaluty bitcoin?). Poza tym nastawienie na tworzenie pieniądza w pełni poddane automatyzacji – w celu uniknięcia pomyłek związanych z czynnikami subiektywnymi albo stosunkami społecznymi – może powodować, że takie stosunki powrócą w formie spekulacji handlowych. Tak jak kapitał finansowy jest ze swej istoty związany z pewnym typem podmiotowości (z finansowym drapieżnikiem, o którym opowiada kino hollywoodzkie), tak autonomiczna forma pieniądza musi być ustanowiona w oparciu o i produktywna względem nowego typu podmiotowości, który nie ograniczałby się do środowiska hakerów oraz nie byłby zorientowany na monetyzację i akumulację, lecz na wzmocnienie kooperacji społecznej. Są jeszcze inne pytania, jakie prowokuje tworzenie pieniądza opartego na tym, co wspólne: czy jest możliwe wykorzystanie zaprowadzanej obecnie przez korporacje typu Google (z jego oprogramowaniem AdSense i AdWord) finansjeryzacji Internetu do tego, by wydobyć pieniądze z obiegu kapitalistycznej akumulacji i uczynić z nich zasoby pod nowe formy dobrobytu opartego na tym, co wspólne (edukację, badania, zdrowie, środowisko itd.)? Jakie lekcje można wyciągnąć z modelu crowdfundingowego i jego ograniczeń w myśleniu o nowych sposobach finansowania społecznej kooperacji? Jak moglibyśmy udoskonalać i rozszerzać zasięg takich eksperymentów, jak ten przeprowadzony przez ruch InterOccupy podczas huraganu Katrina, kiedy relacje w sieci zamieniły się w relacje crowdfundingowe, które mogą służyć za logistyczną infrastrukturę zdolną przemieszczać nie tylko informacje, ale i dobra materialne (Common Ground Collective 2012)?

Sieci społecznościowe

W ciągu ostatnich dziesięciu lat media cyfrowe uległy uspołecznieniu, co oznacza prawdziwą innowację w porównaniu z wcześniejszymi formami oprogramowania społecznego [social software] (listy mailingowe, fora, domeny dla wielu użytkowników itd.). Przykładowo, jako że listy mailingowe wykorzystują komunikacyjny kod wysyłania i otrzymywania, serwisy społecznościowe oraz rozprzestrzenianie się (własnych) spersonalizowanych oznaczeń społecznościowych [social plugins] zmieniło więź społeczną jako taką w treść poddaną procedurom obliczeniowym. Można powiedzieć, że gdy wysyłamy lub otrzymujemy wiadomość, algorytmy działają poza stosunkiem społecznym jako takim – w przestrzeni transmisji i dystrybucji wiadomości, jednak oprogramowanie sieci społecznościowych umieszcza się w samym jego centrum. Rzeczywiście, technologie cyfrowe i serwisy społecznościowe „wcinają się” w stosunek społeczny, to znaczy czynią z niego odrębny obiekt i wprowadzają nową, suplementarną relację (Stiegler 2013). Jeśli za Gabrielem Tarde i Michelem Foucaultem rozumiemy więź społeczną jako asymetryczną relację obejmującą przynajmniej dwa pola (aktywne i receptywne) i odznaczającą się pewnym stopniem wolności, wówczas możemy myśleć o działaniach takich jak polubienia lub bycie polubionym, pisanie i czytanie, obserwowanie i bycie obserwowanym, oznaczanie i bycie oznaczanym, a nawet kupowanie i sprzedawanie, jako o rodzajach zachowań, które „transindywidualizują” to, co społeczne (wprowadzają przejście od tego, co przedindywidualne, przez indywidualne do kolektywnego). W portalach społecznościowych oraz spersonalizowanych oznaczeniach owe działania przekształcają się w odrębne techniczne obiekty (przyciski „polubienia”, komentarze, tagi itd.), które następnie podlegają strukturyzowaniu danych (np. w formie wykresów obrazujących usieciowienie) oraz porządkującej władzy algorytmów. To wytwarza specyficzny czasoprzestrzenny kształt dzisiejszej cyfrowej społeczności: przekaz, algorytmicznie dostosowany przepływ opinii, przekonań, twierdzeń, pragnień wyrażanych przez słowa, obrazy, dźwięki itd.). Te nowe technologie społeczne – mocno napiętnowane przez współczesną teorię krytyczną za ich rzekomo homogenizujący wpływ – otwierają jednak możliwość eksperymentowania z interakcjami typu wielu-z-wieloma, a tym sposobem ostatecznie z samymi procesami indywiduacji. Eksperymenty polityczne (choćby różne internetowe partie, jak Ruch Pięciu Gwiazd, Partia Piratów, Partia X) wykorzystują potencjał tkwiący w tych nowych strukturach społeczno-technicznych w celu tworzenia masowych procesów partycypacji i deliberacji, ale – jak w wypadku Bitcoin – jednocześnie pokazują, że na styku upodmiotowienia politycznego i algorytmicznej automatyzacji jest wiele kwestii do rozwiązania. Ich funkcjonowanie bazuje na szeroko uspołecznionych, nowych rodzajach wiedzy i umiejętnościach (jak stworzyć profil i publiczność, jak wymieniać się i komentować, robić i zamieszczać zdjęcia, wideo, notatki, jak upubliczniać wydarzenia) oraz „miękkich zdolnościach” ekspresji i utrzymywania relacji (poczuciu humoru, argumentowaniu, łagodnym rywalizowaniu). Nie jest to z góry dobre ani złe, ale umożliwia pewien stopień wolności ekspresji istotny dla działania politycznego, którego nie można pozostawiać kapitalistycznym monopolom, a który może przemieszczać się do nowych platform i usług. Przyjmując, że algorytmów – jak powiedzieliśmy wcześniej – nie powinno się oddzielać od szerszych złożeń społecznych, trzeba powiedzieć, iż ich materializacja w ramach czerwonego stosu zakłada przechwytywanie technologii sieci społecznościowych, wymyślenie nowych rodzajów oznaczeń, stworzenie nowych platform poprzez umiejętny bricolage w stosunku do istniejących technologii oraz ustanowienie nowych podmiotowości poprzez przechwytywanie rozpowszechnionej umiejętności korzystania z mediów społecznościowych.

Biohipermedia

Termin biohipermedia, ukuty przez Giorgia Griziottiego, wychwytuje jeszcze bardziej intymną relację między ciałami i urządzeniami, dostrzegalną w rozpowszechnieniu smartfonów, tabletów oraz wszechobecności operacji obliczeniowych. Jako że sieci cyfrowe odchodzą od centralnej pozycji komputera czy nawet laptopa w kierunku mniejszych, przenośnych urządzeń, to wokół aplikacji i „chmur” pojawia się nowy pejzaż społeczny i techniczny, który bezpośrednio „ingeruje w to, jak odczuwamy, postrzegamy i rozumiemy świat” (Griziotti 2014; Portanova 2013). Bratton definiuje aplikacje platform takich jak Android czy Apple jako interfejsy lub membrany łączące pojedyncze urządzenia w większe bazy danych zogniskowane w „chmurach” (ogromnych centrach przetwarzania i gromadzenia danych pozostających we władaniu wielkich korporacji) (Bratton 2013). Ta topologiczna ciągłość ułatwiła dyfuzję dostępnych w Internecie aplikacji, co znacząco przeobraża związek ciał i przestrzeni. Owe technologie nie tylko „przylepiają się do skóry i reagują na dotyk” (jak stwierdził niegdyś Bruce Sterling), ale tworzą nowe „strefy” wokół ciała, które poruszają się w „przestrzeniach kodowanych”, przepełnionych informacjami zdolnymi lokalizować inne ciała oraz miejsca w obrębie interaktywnych map wizualnych. Nowe przestrzenne ekosystemy wyłaniają się na skrzyżowaniu „naturalnego” i sztucznego, pozwalając na uaktywnienie procesu chaosmotycznego współtworzenia życia miejskiego (Iaconesi i Persico). I tutaj również można zaobserwować, jak tego typu aplikacje są dla kapitału po prostu środkami „monetyzacji” i „akumulacji” danych o ruchach ciał, subsumowanych nawet jeszcze ściślej w ramach sieci konsumpcji i nadzoru. Jednak subsumcja ruchliwych ciał pod kapitał niekoniecznie oznacza, że istnieje tylko jeden użytek, jaki można robić z nowych technologii. Czynienie z biohipermediów części czerwonego stosu (co jest formą odzyskania kapitału stałego w dobie usieciowionego społeczeństwa) oznacza połączenie współczesnych eksperymentów ze sprzętem (technologie hakowania telefonów, ruch makerów itd.), wspierających nowe rodzaje „wyobrażonych aplikacji” (pomyślcie na przykład o aplikacjach wymyślonych przez kolektyw artystyczny Electronic Disturbance Theatre, które pozwalają migrantom na przekraczanie kontroli granicznej albo śledzenie pochodzenia towarów i związanego z nimi wyzysku itd.).

Przełożyli Jędrzej Brzeziński, Rafał Zawisza


Bibliografia:

Berardi, Franco. 2009. The Soul at Work: From Alienation to Autonomy. Cambridge, Mass.: The MIT Press.

Berardi, Franco, i Geert Lovink. 2011. „A call to the army of love and to the army of software.” http://www.nettime.org/Lists-Archives/nettime-l-1110/msg00017.html.

Bratton, Benjamin H. 2012. „On the Nomos of the Cloud.” https://www.youtube.com/watch?v=XDRxNOJxXEE.

Bratton, Benjamin. 2013. „On Apps and Elementary Forms of Interfacial Life: Object, Image, Superimposition.” http://www.bratton.info/projects/texts/on-apps-and-elementary-forms-of-interfacial-life/.

Common Ground Collective. 2012. „Common Ground Collective, Food not Bombs and Occupy Movement form Coalition to help Isaac & Kathrina Victims.” http://interoccupy.net/blog/common-ground-collective-food-not-bombs-and-occupy-movement-form-coalition-to-help-isaac-katrina-victims/.

Fisher, Mark. 2009. Capitalist Realism: Is There no Alternative?. Ropley: John Hunt Publishing.

Fuller, Matthew. 2008. Software Studies: A Lexicon. Cambridge, Mass.: The MIT Press.

Fumagalli, Andrea. 2014. „Commonfare: per la riappropriazione del libero accesso ai beni comuni.” http://www.doppiozero.com/materiali/quinto-stato/commonfare.

Fumagalli, Andrea. 2014. „Digital (crypto) money and alternative financial circuits: lead the attack to the heart of the State, sorry, of financial market.” http://quaderni.sanprecario.info/2014/02/digital-crypto-money-and-alternative-financial-circuits-lead-the-attack-to-the-heart-of-the-state-sorry-of-financial-market-by-andrea-fumagalli/.

Goffey, Andrew. 2008. „Algorithm.” W Software Studies: A Lexicon. Red. Matthew Fuller. Cambridge, Mass.: The MIT Press.

Griziotti, Giorgio. 2014. „Biorank: algorithms and transformations in the bios of cognitive capitalism.” http://quaderni.sanprecario.info/2014/02/biorank-algorithms-and-transformation-in-the-bios-of-cognitive-capitalism-di-giorgio-griziotti/.

Iaconesi, Salvatore, i Oriana Persico. Bez daty. „The Co-Creation of the City: re-programming cities using real-time user-generated content.” https://www.academia.edu/3013140/The_Co-Creation_of_the_City.

Marks, Karol. 1986. Zarys krytyki ekonomii politycznej. Tłum. Zygmunt Jan Wyrozembski. Red. Adam Ponikowski, Natalia Kuźmicka. Warszawa: Książka i Wiedza.

Lucarelli, Stefano. 2014. „Il principio della liquidità e la sua corruzione. Un contributo alla discussione su algoritmi e capitale.” http://quaderni.sanprecario.info/2014/02/il-principio-della-liquidita-e-la-sua-corruzione-un-contributo-alla-discussione-su-algoritmi-e-capitale-di-stefano-lucarelli/.

Marazzi, Christian. Bez daty. „Money in the world crisis: the new basis of capitalist power.” https://webspace.utexas.edu/hcleaver/www/357L/357Lmarazzi.html.

Negri, Toni. 2014. „Riflessioni sul manifesto per una politica accelerazionista.” http://www.euronomade.info/?p=1684.

Parisi, Luciana. 2013. Contagious Architecture: Computation, Aesthetics, Space. Cambidge, Mass.–Sidney: The MIT Press.

Portanova, Stamatia. 2013. Moving without a Body. Boston, Mass.: The MIT Press.

Jaromil Roio, Denis. 2014. „Bitcoin, la fine del tabù della moneta.” http://quaderni.sanprecario.info/2014/01/bitcoin-la-fine-del-tabu-della-moneta-di-denis-jaromil-roio/.

Stiegler, Bernard. 2013. „The Most Precious Good in the Era of Social Technologies.” W Unlike Us Reader: Social Media Monopolies and Their Alternatives. Red. Geert Lovink i Miriam Rasch. Amsterdam: Institute of Network Cultures.

Vercellone, Carlo. W przygotowaniu. „From the crisis to the ‘commonfare’ as new mode of production.” W „Theory, Culture and Society”. Red. Giso Amendola, Sandro Mezzadra i Tiziana Terranova.