cytaty z książki "The Chaos Machine The Inside Story of How Social Media Rewired Our Minds and Our World"
katalog cytatów
[+ dodaj cytat]
Zarządy wielkich firm technologicznych nie chcą wziąć odpowiedzialności za swoje produkty, bo nie pozwala im na to ideologia, chciwość i złożoność maszyn, które same się uczą i nad którymi nie da się tak naprawdę zapanować.
Pod wieloma względami technowładza mediów społecznościowych jest zjawiskiem osobliwym. Oddziałują one bowiem na ogromną skalę, choć niezauważalnie. Podtrzymują przeświadczenie, że programiści mogą rozwiązać wszelkie problemy polityczne i społeczne. Towarzyszy temu naiwna wiara, że kiedyś już im się to udało, skoro platformy wciąż się rozrastają. Przekonania owe, tak jak wiele definicyjnych cech mediów społecznościowych, wyrosły na gruncie tej koncepcji kapitalizmu, której hołduje Dolina Krzemowa. A obowiązujący tam model biznesowy uległ niedawno drastycznym przekształceniom.
Platformy społecznościowe niezamierzenie wypracowały strategię pozyskiwania nowych użytkowników, którą od pokoleń stosują ekstremiści. Badacz J.M. Berger opisuje ją jako "konstrukt kryzys-rozwiązanie". Ktoś, kto traci stabilność, próbuje odzyskać poczucie kontroli, identyfikując się z grupą. Może to być wspólnota tak ogromna jak naród albo tak mała jak wierni z jednej parafii. Szczególnie atrakcyjne są tożsamości, które pozwalają własne kłopoty potraktować jako efekt konfliktu na większą skalę. Jesteś nieszczęśliwy nie dlatego, że nie radzisz sobie z trudami życia. To wszystko "ich" wina, bo "oni" cię prześladują. Z "nami" nie tylko zrozumiesz przyczynę swoich problemów, ale także przestaniesz się bać, bo nie ty jeden się z nimi zmagasz.
Pamięć jest zawodna i zabarwiona uprzedzeniami.
Jeżeli ktoś w agencji Jacoba natrafi na post w języku, którego nie zna żaden z pracowników biura, ma obowiązek go zatwierdzić, nawet jeśli użytkownicy zgłosili go jako mowę nienawiści. To odkrycie mną wstrząsnęło. Już od obserwatorów platformy na Sri Lance i w Mjanmie słyszałem, że Facebook nie usuwa jawnych nawoływań do ludobójstwa. Teraz dowiedziałem się czegoś jeszcze bardziej szokującego: decyzje te wynikały z zasad obowiązujących w niektórych firmach outsourcingowych.
Wprawdzie klika lat wcześniej Palihapitiya odszedł z Facebooka, ale to on popchnął firmę w kierunku, w którym zmierza do dzisiaj. Przekonał szefów firmy, że należy zreorganizować przedsiębiorstwo i przekształcić platformę, by zapewnić jej stały rozwój na skalę światową. Narzędzia zastosowane przez nich w tym celu "rozdzierały tkankę społeczną", jak ujął to Palihapitiya. "Zaprojektowane przez nas momentalne sprzężenia zwrotne napędzane dopaminą podkopują fundamenty życia społecznego", tworzą bowiem świat "bez dyskursu obywatelskiego i współpracy, pełen dezinformacji i kłamstw".
Szef pierwszego w Mjanmie kolektywu medialnego, nerwowy reporter, który wrócił po latach z wygnania, stwierdził, że dziennikarze - odzyskawszy wreszcie swobodę po latach represji ze strony władz - mierzą się teraz z nowym przeciwnikiem. Platformy społecznościowe robią coś, na co nie poważyłaby się nawet propaganda dyktatury: rozpowszechniają fake newsy i nacjonalistyczną fanfaronadę, które angażują odbiorców i potwierdzają ich uprzedzenia, dlatego cieszą się większym wzięciem niż prawdziwe dziennikarstwo. Gdy reporterzy próbowali dementować fałszywe informacje krążące w sieci, narazili się na oskarżenia o sprzyjanie wrogim państwom.
Brady w rozmowie ze mną stwierdził, że media społecznościowe nie są "z gruntu złe". Jednak platformy w miarę rozwoju wyrządzały coraz więcej szkód. "Stały się toksycznym środowiskiem", dodał. "Gdy studiowałem, wyglądały zupełnie inaczej". Chciał uświadomić wszystkim, że projektanci i programiści, dążąc do wydłużenia czasu, jaki spędzamy na platformach, o tyle a tyle minut dziennie, mają inne cele niż my. "Nie mnie oceniać, czy mają dobre czy złe intencje, ale niewykluczone, że zależy im na czymś innym niż nam".
Co roku podwaja się zasób treści zabiegających o uwagę. Wyobraźmy sobie na przykład, że nas ulubiony portal zamieszcza dwieście postów dziennie, ale my mamy czas na przeczytanie tylko setki. Platforma ustawiona jest tak, by pokazać nam moralno-emocjonalną połowę aktualności. Gdy po roku podwoi się całkowita liczba postów, obejrzymy tę ich ćwiartkę, która będzie napisana językiem moralno-emocjonalnym. Z czasem zaczniemy odnosić wrażenie, że nasza wspólnota coraz częściej moralizuje, wyolbrzymia i oburza się, więc pójdziemy w jej ślady. Jednocześnie na dalszy plan zejdą treści, które z natury rzeczy mniej nas ciekawią: prawdziwe informacje, odwołania do wyższego dobra czy apele o tolerancję. Nikt nie będzie zwracał na nie uwagi, jak na gwiazdy nad Times Square.
W zamkniętych cyfrowych ekosystemach, gdzie użytkownicy sami kontrolują przepływ informacji, dowody na słuszność uprzedzeń wspólnoty pojawiają się same, tak jak wskaźnik na planszy ouija pokazuje zazwyczaj to słowo, o którym myślą wszyscy uczestnicy seansu.
Silnik rekomendacyjny nagradza język kontrowersji i stwierdzenia oderwane od rzeczywistości.
Użytkownikom, dla których algorytm pozostawał niewidoczny, wydawało się, że obierają wyraźne sygnały społeczne. Wyglądało to tak, jakby wspólnota nagle zaczęła nade wszystko cenić prowokację i oburzenie, koncentrując się na nich pod wpływem algorytmu. On zaś usuwał w cień to, co uznał za mało angażujące, a to z kolei pociągało za sobą komplementarną konsekwencję. Mogło się bowiem zdawać, że niuanse i stonowane emocje nikogo nie obchodzą, dlatego mogą być przyczyną lekceważenia i odrzucenia. Użytkownicy wyraźnie odbierali te sygnały, z coraz większą złośliwością i gniewem poniżali osoby spoza wspólnoty, karali tych, którzy złamali społeczne zasady, i utwierdzali się wzajemnie w swoich poglądach.
YouTube wykorzystywał słabość ludzkiego aparatu poznawczego, wywołując tak zwany efekt iluzji prawdy. Codziennie jesteśmy stale bombardowani informacjami. Radzimy sobie, korzystając ze schematów dyktujących, co należy zaakceptować, a co odrzucić. Jeden z nich każe nam zwracać uwagę na to, co znane. Stwierdzenie podobne do innego, które uznajemy za zgodne z prawdą, zapewne również uznamy za prawdziwe. Przez tę lukę w naszym mechanizmie obronnym mogłaby przejechać ciężarówka. Uczestnicy eksperymentów, słysząc powtarzaną w kółko frazę: "temperatura ciała kurczaka", gotowi byli zgodzić się z takimi wariacjami jak: "Temperatura ciała kurczaka wynosi sześćdziesiąt dwa stopnie". Towarzyszowi podróży Chaslota tyle razy podsuwano obłąkańcze teorie spiskowe, że zapewne jego umysł błędnie uznał ich powtarzalność za dowód prawdy. Media społecznościowe zazwyczaj potęgują ten efekt, skłaniając użytkowników do konformizmu w imię konsensusu społecznego.
Dążenie do angażowania - stała cecha kultury korporacyjnej - ma charakter totalizujący. Były kierownik zespołu czuwającego nad Aktualnościami na Facebooku wspominał, że gdy tylko spadała liczba lajków i udostępnień, programiści otrzymywali automatyczne powiadomienie, a wtedy majstrowali przy systemie i zwiększali jego skuteczność. "Komuś, kto ma stale zwiększać osiągi, w pewnym momencie kończy się zasób dobrych, uczciwych metod", wyznał były kierownik do spraw operacyjnych Facebooka. "Zaczynasz się zastanawiać: no dobra, jakich sztuczek mogę użyć, by zmusić ludzi do ponownego zalogowania się?".
Wcześniej programy selekcjonujące filmiki były dziełem systemów kierowanych przez sztuczną inteligencję. Jednak - podobnie jak w przypadku filtrów antyspamowych - to ludzie nadzorowali owe mechanizmy i modyfikowali je, nadając ich rozwojowi pożądany kierunek. Natomiast uczenie głębokie stanowiło technologię na tyle zaawansowaną, że mogło przejąć funkcję kontrolną. W konsekwencji w większości przypadków "człowiek nie musi korygować algorytmu, projektować i wdrażać zmian", jak w tekście wyjaśniającym wspomniany artykuł o uczeniu głębokim ujął to szef agencji, która pomagała youtuberom rozwinąć skrzydła. "Dlatego należy traktować serio zapewnienia szefów YouTube'a, że nie wiedzą, dlaczego algorytm podejmuje takie, a nie inne decyzje".
Obawy, jakie wyraził Pariser kilka lat wcześniej, dotyczyły kwestii bardziej fundamentalnej. "Toczy się zażarta walka między przyszłą tożsamością, do której aspirujemy, i impulsami, którym dziś ulegamy", powiedział. Już w 2011 roku, na długo zanim YouTube i Facebook wprowadziły potężne narzędzia systemowe, przyczyniając się do katastrofy, proste algorytmy umożliwiały emocjom dojście do głosu. Zazwyczaj odnosiły sukces, rozpowszechniając "niewidzialną propagandę, karmiąc nas naszymi własnymi ideami".
Uwierz mi - przekonywała mnie Wu - te platformy nie zostały zaprojektowane, by ułatwić rzeczową dyskusję. Twitter, Facebook i inne media społecznościowe promują jeden przekaz: >>My mamy rację. Oni się mylą. Pokażmy temu komuś, gdzie jego miejsce, żeby popamiętał<<. W rezultacie pogłębiają się wszystkie istniejące podziały.
Błędne koło animozji, pretensji, konsolidowania tożsamości i stadnego gniewu zagarnia i niszczy całe społeczeństwo.
Ten ciąg wydarzeń - Gamergate, fala hejtu na forach, zmasowany atak na Pao - wstrząsnął wspólnotami w sieci, ale, o dziwo, nie jej nadzorcami. Zdawali się nie zauważać, jak głęboko kultura ekstremizmu i władza motłochu przeniknęły do mediów społecznościowych. Zjawiska tego nie zignorowała jednak skrajna prawica, która zorientowała się, że nie udaje im się to, co z taką łatwością osiągają platformy społecznościowe: przyciągają rzesze młodych, zaangażowanych politycznie Amerykanów, zwolenników białego nacjonalizmu.
Gamergate uświadomiła internetowym trollom, szerzącym rasizm, mizoginię i homofobię, jak wielką mają władzę. To bez wątpienia pozytywne zjawisko, napisał wieloletni użytkownik 4chana, Andrew Anglin, na znanym neonazistowskim forum The Daily Stormer, które założył w 2013 roku. Zachęcał swoich followersów, by przyłączyli się do Gamergate i społeczności internetowych, by utworzyli "utworzyli armię nazistowskich trolli".
Całe organizacje powstawały wokół idei wiralności, a wiele istniejących przekształcono pod jej dyktat. BuzzFeed stał się internetowym gigantem, oferując czytelnikom artykuły w formie rankingów, by zaspokoić potrzebę stałego potwierdzania tożsamości społecznej: "28 oznak, że wychowali cię Irlandczycy" albo "31 problemów, które zrozumie tylko mieszkaniec małego miasta".
W 2012 roku lewicowy aktywista za pieniądze pozyskane od współzałożycieli Facebooka i Reddita stworzył Upworthy - stronę internetową produkującą treści skrojone tak, by mogły je rozpowszechniać media społecznościowe. Zgromadziwszy dane na temat tego, co cieszy się największym powodzeniem w sieci, w Upworthy opracowano receptę na wiralność. Okazało się, że duże wzięcie mają listy numerowane. Równie popularne są wzbudzające ciekawość nagłówki, które aż się proszą, by w nie kliknąć: "Nie zgadniesz, w jaki sposób ten trener podniósł na duchu swoich podopiecznych". Najlepiej jednak sprawdzały się te dające do zrozumienia, że frakcja, do której należy adresat (najczęściej liberałowie), poniżyła znienawidzonych oponentów (kreacjonistów, szefów korporacji, rasistów): "Błyskotliwa odpowiedź na bigoteryjne pytanie zyskuje ogromny aplauz".
Oczywiście kult tożsamości w mediach społecznościowych początkowo nie przynosił wielkich szkód. Zawsze jednak zdawano sobie sprawę z jego potencjału.
Nie po to uprawialiśmy dziennikarstwo, by zadowolić algorytmy mediów społecznościowych, ale z myślą o nich układaliśmy nasze nagłówki. Najskuteczniejsza metoda - której, jak sądzę z dystansu czasowego, nie należało nadużywać - polegała na wykorzystywaniu konfliktu tożsamości. Liberałowie kontra konserwatyści. Bezdyskusyjna słuszność antyrasizmu. Skandalicznie pobłażliwe przepisy regulujące dostęp do broni.
W tym celu pozwalano działać skrajnie stronniczym prowokatorom, nastawionym na zysk farmom kliknięć i najzwyczajniejszym oszustom. Za nic mając sprawiedliwość, zgodność z faktami i wyższe dobro, przyciągali oni rzesze odbiorców, eksploatując konflikty tożsamości albo je prowokując. Początkowo wydawało się, że konsekwencje ich działań ograniczają się do internetu.
Jeśli uważasz za wroga symbol, a nie osobę, nagle znajdujesz w sobie emocje, które popychają cię do nieludzkich zachowań.
Tożsamość była jak proca - napisał Ezra Klein, założyciel Voxu, w książce poświęconej polaryzacji w mediach cyfrowych. Początkowo niewiele osób zdawało sobie sprawę, że walkę o uwagę wygrywał ten, kto nauczył się wykorzystywać siłę wspólnoty, by ustanawiać tożsamość. Zwycięzcy wyłonili się szybko, często za sprawą mechanizmów, których funkcjonowania nie w pełni rozumieli.
Jednak nowe cyfrowe społeczeństwo, które miało zastąpić dawne wspólnoty, ukształtowano tak, że zamiast wyzwalać ludzi, zaczęło generować gwałtowne emocje i konflikty. Doszło do tego w wyniku grzechu pierworodnego, jaki popełniono w Dolinie Krzemowej, gdy rozpanoszył się w niej kapitalizm, a także brzemiennych w skutki zawirowań na rynku zabawkarskim. W konsekwencji już na początku XXI wieku świat cyfrowy zdominowała osobliwa mieszanka męskiego szowinizmu propagowanego przez geeków i początkowo lekceważonego prawicowego ekstremizmu.
DiResta zaobserwowała, że "dochodzi do korelacji między teoriami spiskowymi, kiedy platforma rozpozna, że ktoś interesuje się jedną z nich, z pewnością zaciekawi go też inna i tę właśnie algorytm rekomenduje". Era grup facebookowych promowała coś więcej niż bierną konsumpcję teorii spiskowych. Na czytanie o smugach kondensacyjnych albo sztucznie syntezowanych wirusach można poświęcić góra dwadzieścia minut. Natomiast zabieranie głosu w grupie walczącej z określonymi poglądami może stać się codziennym rytuałem na całe miesiące lub lata. Za każdym razem, gdy użytkownik ulegał woli systemu, ten uczył się, jak popychać innych do podobnego działania. "Jeśli ktoś się opiera - dodaje DiResta - przekaz ulega wzmocnieniu, a na tej podstawie algorytm zwiększa liczbę postów".
Trollowanie to zasadniczo internetowa eugenika - powiedział w 2008 roku Andrew Auernheimer - supergwiazda 4chana, haker anarchista, bezwstydny prowokator i bezlitosny oprawca tych, których wspólnota uznała za wrogów. W wywiadzie tym trollował czytelników, prowokacyjnie nawiązując do historii nazizmu: "Blogerzy to szumowiny (...) Powinni skończyć w piecu!". Takie tyrady świadczyły o wyłanianiu się nowego zjawiska na początku istnienia sieci. Jak piszą Phillips i Milner, kultura doceniająca prowokację i radosne odrzucenie kodeksu moralnego to "środowisko, w którym niepostrzeżenie szerzy się bigoteria, ukryta w tym, co pozornie nią nieskażone".