Antisocial Media. Jak Facebook oddala nas od siebie i zagraża demokracji. Siva Vaidhyanathan 5,5
ocenił(a) na 74 lata temu Machina przyjemności i dezinformacji
Wbrew zapewnieniom Zuckerberga, że Facebook wspiera procesy demokratyczne i dba o wiarygodność rozpowszechnianych informacji, wszyscy, którzy śledzą wzrost autorytaryzmu na całym świecie, uznaliby Indie, Indonezję, Kenię, Polskę, Węgry, Turcję, oraz Stany Zjednoczone za miejsca, w których Facebook bezpośrednio przyczynił się do wzrostu przemocy na tle etnicznym i nacjonalizmu religijnego, a także wzrostu popularności autorytarnych przywódców. Ponadto Facebook, mimo wzmożonej pracy wielu moderatorów i administratorów, zalał także świat kakofonią zmyślonych informacji – tzw. fake newsów. W ten właśnie sposób serwis z niewinnej platformy społecznościowej stworzonej przez studentów Harvardu przekształcił się w siłę, która -uprzyjemniając życie jednostkom - stawia poważne wyzwanie demokracji.
Kultura Doliny Krzemowej oparta jest na powszechnym tam przywiązaniu do logicznego myślenia oraz podejmowania decyzji na podstawie danych. Jest wyraźnie kosmopolityczna i tolerancyjna wobec wszelkiej odmienności i odrębności. Jak w takim razie ta oświecona firma przyczyniła się do wzrostu popularności nacjonalistów pokroju Donalda Trumpa, Marine Le Pen i Państwa Islamskiego oraz spopularyzowania idei niezgodnych z nauką, jak chociażby ruch antyszczepionkowy?
Wpływ na to miała bezsprzecznie ogromna popularność tego medium społecznościowego w naszym życiu. Ta popularność właśnie niesie ze sobą ogromne ryzyko, nad którym nie udało się zapanować Zuckerbergowi. Widzimy to ciągle w zalewie fake newsów, stanowiących zresztą tylko jeden z rodzajów „zanieczyszczenia” informacyjnego. Rodzaje treści, jakie pojawiają się w Facebookowym News Feedzie (sposób prezentacji treści użytkownikowi),często wizualnie nie dają się od siebie odróżnić, zwłaszcza gdy przeglądamy je na małym ekranie – w telefonie. Wszystkie posty, od filmów z YouTube’a, poprzez artykuły z Gazety Wyborczej, czy Newsweeka, po reklamy ze sklepów internetowych mają taką samą ramkę, czcionkę i format. Nie są więc w stanie wychwycić różnicy pomiędzy opinią wyrażoną na jednym z blogów reklamowanych prywatną stroną na Facebooku, a poważnym artykułem dziennikarza śledczego z pierwszych stron gazet. Po ostatnich wyborach w USA eksperci i analitycy stwierdzili, że obrazy i teksty zawierające absurdalne kłamstwa na temat głównych kandydatów z wielką łatwością zyskiwały popularność na Fb. Głównie z tego powodu, że serwis nie podsuwał żadnych wskazówek, które mogłyby pomóc zidentyfikować i ocenić odbiorcom źródło informacji. Nic więc dziwnego, że za pomocą mediów społecznościowych upada rzetelne dziennikarstwo i nieważne stają się opinie ekspertów, ginące w zalewie nieprawdziwych informacji.
Drugi strukturalny problem polega na tym, że Fb propaguje głównie treści, które mocno działają na emocje. Toteż w serwisie szybko zyskują popularność słodkie kotki, niemowlęta, pełne mądrości „skrzydlate słowa”, quizy dotyczące stylu życia oraz mowa nienawiści. Został on wprost zaprojektowany tak, by promować to wszystko, co wywołuje skrajne emocje. Zbyt łatwo jest zanieczyścić serwis bzdurami, by odwrócić uwagę lub propagandą, by zmobilizować masy. Serwis mierzy poziom zaangażowania liczbą kliknięć, polubień, udostępnień lub komentarzy. To sprawia, że najbardziej zapalne materiały rozprzestrzeniają się najszybciej. Trzeźwe, wyważone opinie nie mają szans na Fb. A gdy serwis zapanuje nad naszą wizją świata oraz rządzi naszymi kręgami społecznymi, wszyscy stajemy się potencjalnymi przekaźnikami ekstremistycznych bzdur.
Trzecim zjawiskiem jest tzw. „bańka filtrująca” – pojęcie ukute przez Eliego Parisera, opisujące sposoby, jakie Facebook i Google stosują, by podsuwać użytkownikom więcej tego, co im się podoba, zawężając tym samym ich pole widzenia i tworząc „komory pogłosowe” potwierdzające ich przekonania. Chodzi o to, że jeśli zazwyczaj dajesz lajki i zostawiasz serduszka na określonych stronach, profilach lub pod linkami do pewnych stron internetowych, jeśli udostępniasz je na swoim profilu, Facebook wie, że jesteś w nie wysoce zaangażowany. Więc podsuwa Ci więcej takich treści, a mniej tych, które nie przyciągają twoich interakcji. Wybiera je za pomocą prognozowanej oceny każdego elementu, niezależnie od tego, czy udostępnił je ktoś z twoich znajomych, czy jest to zakupiona reklama. Wkrótce perspektywy twojego News Feedu zawężają się coraz bardziej ze względu na to, że twoi znajomi i lubiane przez ciebie treści publikują raczej spójne politycznie treści. Toteż z mniejszym prawdopodobieństwem natrafimy na coś z zewnątrz, a więc pozostaniemy nieświadomi, że istnieją kontrargumenty i konkurencyjne roszczenia. Dotyczy to każdej grupy społecznej, która dzięki mediom społecznościowym zamyka się w swojej bańce informacyjnej. Od ekologów po nacjonalistów. Od rasistów po ortodoksów religijnych.
Jeśli więc ktoś chciałby stworzyć maszynę, kierującą propagandę do milionów ludzi, odciągającą ich od ważnych spraw, nakręcającą nienawiść i fanatyzm, rujnującą zaufanie społeczne, niszczącą dziennikarstwo i rozpowszechniającą wątpliwości dotyczące nauki oraz inwigilującą nas wszystkich, pewnie byłoby to coś bardzo podobnego do Facebooka. Zatem przed wysłaniem w świat kolejnego lajka – musimy się po prostu zatrzymać i pomyśleć.
Tekst powstał na podstawie książki: „Antisocial media. Jak Facebook oddala nas od siebie i zagraża demokracji” Sivy Vaidhyanathana (przeł. Weronika Mincer i Katarzyna Sosnowska),Grupa Wydawnicza Foksal, Warszawa 2018